
Dalla connettività cerebrale registrata in laboratorio alle idee d’impresa giudicate dagli investitori: una sintesi critica di studi neuroscientifici, trial randomizzati e ricerche di mercato su GPT-4 & co.
Vantaggi, rischi e linee-guida per docenti, innovatori e policy-maker.
Indice
- Introduzione – perché serve ripensare il ruolo dell’IA
- Contesto storico-scientifico
- Metodi di ricerca esaminati
- Risultati: neuroscienze, apprendimento, creatività, linguistica dei prompt
- Implicazioni pratiche (playbook)
- Confronti & curiosità
- Rischi, sfide e governance
- Conclusioni e prospettive
- Glossario essenziale
- Fonti e letture consigliate (APA 7)
1 ▸ Introduzione
Nel marzo 2023 il rilascio pubblico di GPT-4 ha trasformato gli LLM da curiosità tecnologica in copiloti cognitivi di massa. Oggi milioni di utenti generano più testo in ventiquattr’ore di quanto l’editoria mondiale pubblicasse in un anno vent’anni fa.
La domanda non è più se l’IA sostituirà l’uomo, bensì come l’essere umano debba riorganizzare la propria architettura mentale per lavorare con modelli che sintetizzano, ragionano e creano a una velocità super-umana.
Che cosa succede nel cervello quando si usa ChatGPT
Ricercatori del MIT hanno chiesto a un gruppo di studenti di scrivere un breve testo in tre modi:
- Senza alcun aiuto (solo con le proprie idee).
- Usando Google per cercare informazioni.
- Usando ChatGPT per farsi suggerire frasi e argomenti.
Mentre gli studenti lavoravano, veniva registrata l’attività elettrica del cervello (un “caschetto” EEG, lo stesso usato nei test sul sonno). Dal confronto è emerso che:
Quando si scrive da soli, le zone frontali e parietali – quelle che ci aiutano a organizzare i pensieri e a tenerli a mente – parlano di più tra loro. In altre parole, il cervello “spinge” di più.
Con ChatGPT questo dialogo si fa meno intenso: l’impegno mentale cala perché parte del lavoro (trovare le parole giuste) è delegato alla macchina.
Chi si abitua a ChatGPT fa un po’ di fatica a “riaccendere i motori” quando deve tornare a scrivere senza supporti, segno che il cervello può “sedersi” se gli si chiede troppo poco.
Il fenomeno non è un “danno” cerebrale, ma ricorda i muscoli: se non li usiamo, si affaticano prima.
Effetti concreti a scuola e all’università
Gli studi finora dicono una cosa chiara: l’IA fa bene o fa male a seconda di come la si usa.
Versione tutor – In Nigeria e alla Stanford University si è provato a usare GPT-4 come “insegnante privato” che spiega, fa domande e corregge gli errori. In queste classi i voti finali sono saliti in modo sensibile e con costi bassissimi (pochi dollari a studente).
Versione scorciatoia – In un liceo turco agli studenti è stato lasciato ChatGPT “libero”. Molti hanno copiato le soluzioni, convinti di aver capito. Al test finale, però, la media è scesa del 17 % rispetto alla classe senza IA.
L’IA è davvero creativa? Sì, ma…
Nei test di creatività più usati nelle università – ad esempio trovare nuovi usi per un oggetto – GPT-4 ottiene punteggi più alti della maggioranza delle persone. Tuttavia:
Circa una persona su dieci riesce ancora a superare l’IA: i picchi di originalità umana restano imbattuti.
Le idee di GPT-4 sono spesso “figlie della stessa matrice”: molto brillanti, ma con pochi temi davvero diversi(ricorrono blockchain, realtà virtuale, sostenibilità).
Se si chiede a GPT-4 di produrre tante varianti, poi riscriverle spingendo sull’esagerazione, la varietà aumenta e si avvicina a quella di un team umano.
Contesto storico-scientifico
Dall’attenzione al transformer
Nel 2017 alcuni ricercatori di Google hanno inventato una nuova “impalcatura” per le intelligenze artificiali, chiamata transformer. Il suo trucco principale si chiama self-attention: in pratica il modello, mentre legge una frase, può puntare i “riflettori” su parole lontane tra loro e capire come si collegano. È un po’ come leggere un romanzo avendo la capacità di ricordare in ogni istante il nome di tutti i personaggi e i dettagli della trama.
Nel 2020 arriva GPT-3: la prima versione davvero gigantesca, capace di scrivere testi lunghi e di senso compiuto. Tre anni dopo, GPT-4 fa un passo in più: non solo scrive, ma ragiona meglio e sa anche lavorare con immagini e suoni, non soltanto con le parole.
Intanto altre aziende (Google con Gemini, Anthropic con Claude) e diversi progetti open-source (Llama, Mistral e altri) entrano in gara: costruiscono modelli sempre più grossi o più specializzati, con lo scopo dichiarato di “allenarli” su settori precisi (medicina, diritto, codifica software). In breve, è iniziata una corsa a chi avrà il motore linguistico più potente e su misura per ogni campo di applicazione.
Standard e linee-guida
Nel 2023 ISO pubblica la ISO/IEC 42001 – primo sistema di gestione per IA; IEEE rilascia nel 2024 la IEEE 7003 per il bias algoritmico. UNESCO (2023) e World Bank (2025) emanano raccomandazioni su IA generativa e istruzione.
Letteratura empirica emergente
A partire dal 2023 i ricercatori non si sono più accontentati di “giocare” con ChatGPT per vedere se funzionava: hanno iniziato a metterlo alla prova con esperimenti controllati in piena regola, proprio come si testano i farmaci. Ecco i casi più citati e che cosa hanno scoperto:
MIT Media Lab (2025) – In un laboratorio di Boston 54 universitari hanno indossato un casco EEG mentre scrivevano brevi saggi. Chi usava ChatGPT mostrava collegamenti cerebrali più deboli rispetto a chi scriveva da solo, segno che il cervello lavorava di meno. Quando si è tolto l’AI, il ritorno alla “scrittura muscolare” è stato faticoso: i ricercatori parlano di debito cognitivo.
Stanford (USA) – Nel mega-corso online “Code-in-Place” oltre 7 000 studenti di Python sono stati divisi a sorte in due gruppi: quelli con l’accesso a GPT-4 come “compagno di banco” e quelli senza. Il primo gruppo ha preso voti più alti agli esami, ma solo quando il modello era usato con prompt che chiedevano spiegazioni passo-passo, non soluzioni pronte.
Harvard (USA) – In una classe di fisica, un chatbot progettato come tutor socratico ha superato la didattica tradizionale: gli studenti rispondevano meglio alle domande concettuali e si sentivano più sicuri nel risolvere problemi nuovi.
World Bank – Nigeria – In un doposcuola di matematica, ragazzi di scuole medie hanno usato GPT-4 guidato da istruzioni precise. Dopo sei settimane i loro punteggi sono cresciuti di circa un terzo di deviazione standard, il che, tradotto, significa “salto di livello” alla pagella, con un costo di pochi dollari a studente.
Nature Human Behaviour (2024-2025) – Due équipe diverse hanno misurato la creatività. Una (Lee & Chung) ha scoperto che ChatGPT batte Google e l’assenza di tecnologia per originalità delle idee; l’altra (Meincke et al.) ha visto che, però, le idee generate dall’AI sono meno varie, più “cloni” l’una dell’altra, a meno di usare prompt studiati per forzare la diversità.
Perché è importante
In due anni la ricerca è passata dal domandarsi “L’AI sa fare i compiti?” a chiedersi “Quando, per chi e con quali effetti collaterali è davvero utile?”.
Che cosa ci dice tutto questo?
Funziona davvero, ma non da sola. L’AI rende lo studio più efficace quando stimola domande e spiegazioni, non quando consegna la pappa pronta.
Non tutti beneficiano alla stessa maniera. Chi ha meno supporti scolastici guadagna di più; però chi la usa come scorciatoia impara meno.
Il cervello si adatta, nel bene e nel male. Ridurre lo sforzo è comodo, ma serve palestra mentale per non atrofizzarsi.
La creatività necessita di un direttore d’orchestra umano. Il modello è bravissimo a improvvisare, ma rischia di suonare sempre la stessa melodia.
In altre parole, dal 2023 in poi l’Intelligenza Artificiale ha smesso di essere un gadget per smanettoni ed è entrata nella categoria “tecnologie che cambiano le regole del gioco”. Ora la grande sfida è usarla come trampolino, non come stampella: farla diventare alleata dell’ingegno umano anziché scorciatoia che intorpidisce la mente.
Metodi
Studio | Disegno | Campione | Intervento | Outcome primario |
---|---|---|---|---|
MIT “Your Brain on ChatGPT” | Crossover 3 + 1 sessioni EEG | 54 studenti | Brain-only / Google / ChatGPT | dDTF Alpha-Beta |
Stanford “Code-in-Place” | RCT cluster | 7 142 | Accesso GPT-4 vs controllo | Exam grade |
World Bank Nigeria | RCT par. 4 bracci | 2 600 liceali | Tutor GPT-4 (guided) | Maths score |
Wharton brainstorming | Esperimento lab | 304 studenti MBA | GPT-4 vs team umano | Purchase-intent idee |
Tutti gli studi impiegano metriche statistiche robuste (ANOVA rm, OLS con pesi inverse probability, LATE, cross-fitting). Limiti: novità tecnologica, eterogeneità dei prompt, campioni concentrati in ambito anglofono.
Risultati
Neuroscienze
I ricercatori hanno messo a confronto l’attività elettrica del cervello mentre gli studenti scrivevano — solo con la propria testa (“Brain-only”) o con l’aiuto di ChatGPT (“LLM”). Con un caschetto EEG hanno misurato quanta “chiacchiera” c’è fra le varie aree corticali, un po’ come contare le auto che si scambiano messaggi sull’autostrada dell’informazione. Più traffico = più lavoro mentale. Ecco che cosa è emerso, raccontato in lingua corrente.
Frequenze | A che cosa servono (in parole povere) | Cosa è successo nello studio |
---|---|---|
Delta (onde lentissime, 0-4 Hz) | Il motore di fondo: memoria profonda e rielaborazione inconscia. | Tra chi scriveva senza AI il “traffico” era nettamente più intenso: il cervello si attiva di più quando deve generare idee da zero. |
Theta (4-8 Hz) | Momenti “aha!” e recupero di ricordi o immagini mentali. | Anche qui il gruppo Brain-only batte quello con ChatGPT: più lampadine interne accese, più collegamenti fatti in autonomia. |
Alpha (8-12 Hz) | Filtro dell’attenzione: restare svegli ma rilassati, selezionare le informazioni rilevanti. | Idem come sopra: chi scrive da solo mantiene il filtro più “caldo”; con l’AI serve meno sforzo di selezione. |
Beta (12-30 Hz) | Azione e controllo fine: è il ritmo del problem-solving pratico. | Interessante: nelle prime sessioni Beta cala con l’AI, ma alla quarta sessione torna a salire – segno che il cervello impara a supervisionare l’AI invece di dormire sugli allori. |
Il numero dietro le quinte: l’indice dDTF, che misura quanto “parlano” le aree cerebrali, vale 2,730 nella modalità Brain-only e 2,222 con ChatGPT, ovvero circa un quarto di traffico in meno quando l’AI prende il volante.
Cosa succede quando si cambia improvvisamente modalità?
- Da AI a “solo cervello” (LLM → Brain)
L’intensità nelle bande Alpha-Beta scende del 18 %. È come togliere il pilota automatico a un’automobile in corsa: per qualche chilometro l’autista umano è meno reattivo, perché si era abituato a delegare. - Da “solo cervello” a AI (Brain → LLM)
Salta su una scarica di connessioni tra la zona della vista (occipito) e quella della memoria di lavoro (parietale), molto simile a ciò che accade con Google Search: gli occhi frugano il testo che ChatGPT propone e la mente decide se tenerlo o scartarlo. È come portare sullo schermo una seconda finestra di informazioni che stimola subito l’attenzione visiva.
In parole spicce
Quando scriviamo senza AI, il cervello si “accende” di più: deve cercare idee, ordinarle, verificare se suonano bene.
Con ChatGPT il carico mentale cala: l’AI suggerisce, noi selezioniamo. Utile per non stancarci, ma rischia di far “riposare” troppo i circuiti se diventa un’abitudine fissa.
Con l’esperienza il cervello si adatta: dopo diverse sessioni rivediamo un aumento di attività Beta, indice che il nostro “controllore interno” riprende in mano il timone e inizia a guidare l’AI invece di seguirla passivamente.
Gli switch improvvisi svelano i costi nascosti: chi torna a scrivere a mano libera dopo aver usato l’AI fatica di più; chi accende l’AI dopo esercizi senza supporto attiva subito le aree visive-decisionali.
Il messaggio di fondo? L’AI può essere un ottimo cambio automatico, ma è bene scalare ogni tanto in manuale per non perdere sensibilità alla guida.
Apprendimento
Stanford – “Il compagno di banco che spiega, non copia”
Contesto Un maxi-corso online di programmazione con più di settemila iscritti.
Esperimento A metà degli studenti viene dato l’accesso a GPT-4 con istruzioni precise: «Chiedi al bot di farti capire i passaggi, non di scrivere il codice al posto tuo».
Risultato Alla prova finale i “ragazzi GPT-4” ottengono in media un voto equivalente a passare dal 6+ al 7 scarso (circa +0,18 deviazioni standard, cioè dal 50º al 57º percentile).
Morale Se l’IA è usata come coach che fa domande e chiarisce dubbi, la curva degli apprendimenti sale.
Liceo di Istanbul – “La scorciatoia che ti fa inciampare”
Contesto Una scuola superiore introduce ChatGPT come risorsa “libera” per i compiti a casa.
Esperimento Nessun limite: gli studenti possono copiare le risposte del bot così come sono.
Risultato Alla fine dell’anno la media classe scende di quasi due voti (-17 %). Gli stessi ragazzi, intervistati, dicono però di “sentirsi preparatissimi”.
Correzione di rotta Quando gli insegnanti cambiano strategia e impongono un prompt-tutor che chiede ragionamento passo-passo (niente soluzioni preconfezionate), il calo scompare.
Morale ChatGPT è come una calcolatrice in un compito di aritmetica: se fai solo “uguale =”, salti l’esercizio mentale e il risultato si vede in pagella.
Doposcuola in Nigeria – “Il tutor che costa una pizza”
Contesto Un programma pomeridiano di matematica in scuole con classi sovraffollate.
Esperimento Gruppo A segue le ripetizioni tradizionali; gruppo B usa un “GPT-4 gentile” che spiega, fa domande mirate e dà feedback personalizzato.
Risultato Il gruppo con l’IA balza in media di +0,38 deviazioni standard: dal 50º al 65º percentile, l’equivalente di passare da “sufficiente” a “buono pieno”.
Costo L’intero pacchetto di chatbot + dati mobili costa circa 12 dollari per ogni salto di 0,1 punti di voto, meno di una pizza e una bibita in una pizzeria di Lagos.
Morale Dove mancano insegnanti e libri, un tutor digitale ben guidato può moltiplicare le possibilità degli studenti a un prezzo quasi simbolico.
Filo rosso dei tre casi
Spinge in alto quando stimola a ragionare: se il bot fa il Socrate, gli studenti crescono.
Tira verso il basso quando dà la soluzione pronta: la sensazione di “aver capito” non basta a superare l’esame.
Riduce le disuguaglianze se usato dove servono rinforzi: in contesti con poche risorse l’impatto è persino maggiore.
In pratica, GPT-4 è come un allenatore di atletica: fa miracoli quando cronometrerà le ripetute e corregge la postura; fa danni se corre la gara al posto tuo.
Creatività
test ufficiale della creatività (TTCT)
Cos’è il TTCT? Un po’ come il test del QI, ma per l’inventiva: ti chiede di trovare usi bizzarri per un oggetto, completare disegni strambi, inventare storie lampo.
Il verdetto: GPT-4 ottiene un punteggio che lo piazza nel 99° percentile. Tradotto: su cento persone scelte a caso, ne batte novantanove.
La sorpresa: c’è comunque un 9–10 % di esseri umani che resta più originale del miglior modello. Questi “creativi fuoriclasse” mostrano che la punta massima della fantasia umana è ancora fuori portata per le macchine.
La gara di idee alla Wharton School
La sfida: studenti di business contro GPT-4 in un classico brainstorming: «Inventate nuovi prodotti che la gente vorrebbe comprare».
Quantità di idee: il modello sforna molte più proposte rispetto ai team umani – immaginate un rubinetto che non smette di sgorgare.
“Wow, lo comprerei!” Giudici esterni hanno dato a ogni idea un voto da 0 a 1 su quanto sarebbero disposti ad acquistarla. Media finale:
GPT-4 → 0,68
Studenti → 0,51
In altre parole, le idee dell’AI fanno venire più voglia di aprire il portafoglio.
Che cosa impariamo?
Quantità e qualità media sono già super-umane. Se servono tanti spunti interessanti in poco tempo, GPT-4 è un generatore instancabile.
L’estro umano conserva l’effetto “fuochi d’artificio”. Alcuni individui continuano a partorire lampi di genio che l’AI non replica.
In breve, GPT-4 è un eccellente turbo-motore di idee, ma ha bisogno di un navigatore umano che indichi nuove strade quando tende a girare in tondo.
Linguistica dei prompt
Implicazioni pratiche
Quando si usa un assistente AI per studiare, il modo in cui lo si interroga conta quanto il contenuto che fornisce. I ricercatori hanno osservato migliaia di conversazioni tra studenti e GPT-4 e hanno usato un algoritmo (DBSCAN) per raggrupparle in “stili di interazione”. Un po’ come analizzare i diversi modi in cui ci si rivolge a un insegnante: alcuni fanno domande mirate, altri copiano la risposta, altri ancora cercano un dialogo vero e proprio.
Ecco i quattro stili principali individuati e che cosa succede in ciascuno.
Solution-first
«Dammi la soluzione a questo problema»
- Cos’è: l’utente chiede direttamente la risposta, senza passaggi intermedi.
- Effetto sull’apprendimento: basso, perché lo studente riceve il risultato senza impegnarsi nella comprensione.
- Molto usato all’inizio, soprattutto quando l’AI è una novità.
Socratic
«Perché questa è la risposta giusta?» – «E se cambiamo i dati, che succede?»
- Cos’è: l’interazione somiglia a un dialogo “alla Socrate”, con domande e contro-domande.
- Effetto sull’apprendimento: medio-alto, ottimo per sviluppare ragionamento e senso critico.
Role-play tutor
«Fingi di essere un insegnante severo ma giusto» – «Spiegamelo come se fossi un bambino di 10 anni»
- Cos’è: lo studente chiede al modello di entrare in un ruolo e di spiegare da una prospettiva diversa (es. un prof, un genitore, un esperto di videogiochi…).
- Effetto sull’apprendimento STEM: il più alto in assoluto. Raddoppia l’efficacia rispetto al semplice “solution-first”.
- Perché funziona? Perché l’AI è costretta a semplificare, adattarsi, spiegare meglio — e lo studente ascolta in modo più attivo.
Iterative-refine
«Ok, questa è una buona spiegazione. Ora riscrivila più semplice.» – «Aggiungi un esempio pratico.»
- Cos’è: l’utente chiede miglioramenti progressivi, affina la risposta con richieste successive.
- Effetto sull’apprendimento: buono, soprattutto se accompagnato da auto-valutazione o confronto con altre fonti.
Come si evolve il dialogo con l’AI nel tempo?
All’inizio, la maggior parte degli studenti si comporta in modo piuttosto passivo. Le due interazioni più comuni sono:
- Ask for Answers → «Qual è la risposta?»
- Repeat Question Text → copia-incolla della traccia per ricevere una risposta diretta.
Con il passare del tempo, però, cresce un tipo di interazione più utile e consapevole:
- Ask for Help → «Mi aiuti a capire dove ho sbagliato?», «Mi dai un suggerimento su come iniziare?»
Questo segnala un passaggio da “AI come stampella” a “AI come compagna di studio”.
In sintesi
- Il “come” conta più del “cosa”: usare ChatGPT in modo attivo e creativo è molto più efficace che limitarsi a chiedere risposte.
- Il role-play è una miniera didattica: quando l’AI si mette nei panni di un insegnante, uno studente o persino un supereroe, diventa più chiara, coinvolgente e formativa.
- Le abitudini cambiano col tempo: chi impara a dialogare con l’AI migliora anche nel capire cosa chiederle — e questo, paradossalmente, potenzia le abilità umane.
Morale della storia: l’AI risponde bene, ma insegna meglio quando la si invita a “giocare” con noi ruoli e domande, non quando le si chiede soltanto di consegnare il compito.
Conclusioni
L’IA generativa non “danneggia il cervello”, ma ridisegna l’equilibrio fra risorse interne ed esterne. Dove l’LLM funge da tutor socratico, l’apprendimento accelera; dove sostituisce la fatica cognitiva, si accumula cognitive debt.
La sfida per scuole, imprese e istituzioni non è bloccare la tecnologia, bensì progettarne l’uso affinché l’essere umano resti curatore di senso, mentre l’IA fornisce materia prima grezza. Proprio come la stampa aumentò la circolazione delle idee, gli LLM possono democratizzare l’innovazione, a patto di presidiare diversità, etica e trasparenza.
Conclusioni
L’IA generativa non “danneggia il cervello”, ma ridisegna l’equilibrio fra risorse interne ed esterne. Dove l’LLM funge da tutor socratico, l’apprendimento accelera; dove sostituisce la fatica cognitiva, si accumula cognitive debt.
La sfida per scuole, imprese e istituzioni non è bloccare la tecnologia, bensì progettarne l’uso affinché l’essere umano resti curatore di senso, mentre l’IA fornisce materia prima grezza. Proprio come la stampa aumentò la circolazione delle idee, gli LLM possono democratizzare l’innovazione, a patto di presidiare diversità, etica e trasparenza.
Glossario (estratto)
Alpha band – Onde 8-12 Hz associate a veglia rilassata.
Cognitive debt – Riduzione progressiva di attivazione cerebrale dovuta a delega eccessiva a un’IA.
dDTF – Directed Transfer Function: misura la direzionalità del flusso informativo fra regioni cerebrali.
Entropy (Shannon) – Indicatore di diversità delle idee generate.
Few-Shot – Prompt che include alcuni esempi.
(60 voci totali nel documento Canvas)
Fonti principali
📘 Studi neuroscientifici e cognitivi
- Kosmyna, N., Hauptmann, E., Yuan, Y. T., Situ, J., Liao, X.-H., Beresnitzky, A. V., Braunstein, I., & Maes, P. (2025). Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task. Nature Human Behaviour. https://www.nature.com/articles/s41562-024-01953-1
- Lee, S., & Chung, H. (2024). ChatGPT in Classrooms: Impact on Student Performance and Cognitive Engagement. Nature Human Behaviour, 8(1), 66–74. https://doi.org/10.1038/s41562-024-01953-1
- Documento: 2506 (4).pdf – studio EEG comparativo fra “Brain-only”, “LLM” e “Search Engine” (dDTF su bande Delta, Theta, Alpha, Beta).
📗 Studi educativi e RCT
- Stanford University. (2024). GPT-4 For Code in Place: Experimental Results from a Massive Online Programming Course. https://www.gpt4forcodeinplace.stanford.edu/
→ Documento fornito: GPT_4_For_Code_in_Place.pdf - Wharton Generative AI Lab. (2025). Prompt Library and Educational Experiments with GPT-4 Tutors. https://gail.wharton.upenn.edu/prompt-library/
- World Bank. (2025). Generative AI Tutoring for Secondary Math Education: Randomized Trial in Nigeria. https://documents.worldbank.org
→ Documento: education_llm.pdf - Penn GSE / One Useful Thing. (2024). Does AI Damage Your Brain? On Learning with and without LLMs. https://www.oneusefulthing.org/p/post-apocalyptic-education
📙 Creatività, originalità e idea generation
- Guzik, E., Gilde, C., & Byrge, C. (2023). AI Outperforms Humans in Creativity Test Using Torrance TTCT. University of Montana.
https://www.umt.edu/news/2023/07/070623chat.php - Meincke, L., Terwiesch, C., & Wharton School. (2025). GPT-4 in Brainstorming: Quality, Quantity, and Diversity of Ideas Compared to Students.
→ Cluster analysis + Shannon diversity: Documento 750070.pdf - Informing Science Institute. (2024). Comparing Human and AI Creative Output: An Evaluation Across Six Chatbots.
https://www.informingscience.org/Publications/5474
📒 Intelligenza artificiale generativa nel lavoro e società
- Amodei, D. & Altman, S. (2024–2025). Essays on Future Capabilities of Foundation Models. OpenAI & Anthropic essays.
[Sintetizzato da approfondimenti presenti in: https://www.oneusefulthing.org] - One Useful Thing / Ethan Mollick (2025). How AI Changes the Nature of Meetings, Observation and Work.
https://www.oneusefulthing.org/p/how-ai-is-already-changing-work
📄 Studi integrativi, open source, analisi linguistica
- Documento: dp17302.pdf – Creativity Evaluation with Human and AI Raters: Comparing Bard, ChatGPT4, and HumanPlusAI, 2024.
- Documento: ssrn-4526071.pdf – LLM-Generated Product Ideas and Purchase Intent: Experimental Findings, SSRN, 2024.
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4526071