Please use this identifier to cite or link to this item:
http://elea.unisa.it/xmlui/handle/10556/8912Full metadata record
| DC Field | Value | Language |
|---|---|---|
| dc.date.accessioned | 2025-09-11T08:52:01Z | - |
| dc.date.available | 2025-09-11T08:52:01Z | - |
| dc.description.abstract | L'uso dell'intelligenza artificiale nella ricerca storica solleva interrogativi cruciali. Questo studio analizza 252 risposte fornite da ChatGPT su Mussolini e il Fascismo, evidenziando che il 56,7% contiene errori. Tra questi, il 46,4% riguarda ambiguità interpretative, mentre il 17,8% presenta gravi inesattezze fattuali. | it_IT |
| dc.language.iso | it | it_IT |
| dc.rights | CC BY-ND 4.0 | it_IT |
| dc.relation.ispartofjournal | Storie in Cammino. VII Conferenza Annuale AIPH, Modena, 3-6 giugno 2025 | it_IT |
| dc.identifier.citation | Michele Lacriola, Fabio De Ninno, "Mussolini e ChatGPT. Rischi e distorsioni dell'I.A. nelle narrazioni storiche sul fascismo" in Storie in Cammino. VII Conferenza Annuale AIPH, Modena, 3-6 giugno 2025, AIPH Associazione Italiana di Public History, 2025, p. 214 | it_IT |
| dc.title | Mussolini e ChatGPT. Rischi e distorsioni dell'I.A. nelle narrazioni storiche sul fascismo [poster] | it_IT |
| dc.source | UniSa. Sistema Bibliotecario di Ateneo | it_IT |
| dc.contributor.author | Lacriola, Michele | - |
| dc.contributor.author | De Ninno, Fabio | - |
| dc.date.issued | 2025 | - |
| dc.identifier.uri | http://elea.unisa.it/xmlui/handle/10556/8912 | - |
| dc.publisher | AIPH - Associazione Italiana di Public History | it_IT |
| dc.type | Other | it_IT |
| dc.format.extent | P. 214 | it_IT |
| Appears in Collections: | Fotografie e poster / Pictures and posters | |
Files in This Item:
| File | Description | Size | Format | |
|---|---|---|---|---|
| Mussolini e ChatGPT.pdf | Mussolini e ChatGPT. Rischi e distorsioni dell'I.A. nelle narrazioni storiche sul fascismo | 581.1 kB | Adobe PDF | View/Open |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.