E-Mail: [email protected]
- Bernklau è stato erroneamente identificato da Copilot come un evaso da un istituto psichiatrico, molestatore di bambini e truffatore di vedove.
- Copilot utilizza un corpus linguistico basato su centinaia di miliardi di parole, aumentando il rischio di allucinazioni.
- Nel 2023, Mark Walters ha citato in giudizio OpenAI per una falsa accusa di frode, mostrando la gravità di questi errori.
Il giornalista tedesco Martin Bernklau, noto per la sua lunga carriera come cronista giudiziario, ha recentemente vissuto un’esperienza sconvolgente con l’intelligenza artificiale di Microsoft, Copilot. Inserendo il proprio nome e la propria località nel chatbot, Bernklau ha scoperto con orrore che l’IA lo aveva identificato come un evaso da un istituto psichiatrico, un molestatore di bambini e un truffatore che prende di mira le vedove. Queste accuse, ovviamente false, sono un esempio delle cosiddette “allucinazioni” generate dall’IA, risposte inaccurate o prive di senso a un prompt fornito dall’utente.
Il Meccanismo delle Allucinazioni dell’IA
Copilot e altri sistemi di intelligenza artificiale generativa come ChatGPT e Google Gemini sono modelli di linguaggio di grandi dimensioni (LLM). Questi modelli utilizzano reti neurali di deep learning che elaborano una grande quantità di linguaggio umano per “addestrare” i loro algoritmi. Attraverso i dati di addestramento, l’algoritmo apprende le relazioni statistiche tra diverse parole e come è probabile che certe parole appaiano insieme in un testo. Questo permette al LLM di prevedere la risposta più probabile basata su probabilità calcolate.
Tuttavia, gli LLM non possiedono una conoscenza reale. I dati utilizzati per addestrare Copilot e altri LLM sono vasti. Anche se i dettagli esatti della dimensione e della composizione del corpus di Copilot o ChatGPT non sono divulgati pubblicamente, è noto che Copilot incorpora l’intero corpus di ChatGPT oltre a specifici articoli aggiuntivi di Microsoft. I predecessori di ChatGPT4, come l’intelligenza artificiale generativa delle versioni 3 e 3.5, sono stati costruiti utilizzando “centinaia di miliardi di parole”. Copilot, che si basa sulla tecnologia di ChatGPT4, fa uso di un database ancora più ampio.
- 👍 Che grande opportunità per migliorare l'IA......
- 👎 Inaccettabile che l'IA diffonda tali falsità......
- 🤔 E se l'IA avesse un ruolo diverso?......
Le Conseguenze delle Allucinazioni
Il caso di Bernklau non è isolato. Nel 2023, il conduttore radiofonico statunitense Mark Walters ha citato in giudizio OpenAI dopo che ChatGPT aveva falsamente affermato che Walters era stato citato in giudizio dalla Second Amendment Foundation (SAF) per frode e appropriazione indebita di fondi. Walters non aveva mai lavorato per SAF e non era coinvolto nel caso tra SAF e lo stato di Washington. Tuttavia, poiché la fondazione ha obiettivi simili al programma di Walters, si può dedurre che il contenuto testuale nel corpus linguistico abbia costruito una correlazione statistica tra Walters e SAF, causando l’allucinazione.
Correggere questi problemi in tutto il corpus linguistico è quasi impossibile. Ogni singolo articolo, frase e parola inclusi nel corpus dovrebbero essere esaminati per identificare e rimuovere il linguaggio distorto. Data la scala del dataset, ciò è impraticabile. Le allucinazioni che associano falsamente le persone a crimini, come nel caso di Bernklau, sono ancora più difficili da rilevare e affrontare.
Le Soluzioni di Microsoft e le Limitazioni
Per affrontare il problema, Microsoft ha ingegnerizzato una risposta automatica che viene fornita quando un utente chiede a Copilot del caso di Bernklau. La risposta dettaglia l’allucinazione e chiarisce che Bernklau non è colpevole di nessuna delle accuse. Microsoft ha dichiarato di incorporare continuamente il feedback degli utenti e di rilasciare aggiornamenti per migliorare le sue risposte e fornire un’esperienza positiva. Tuttavia, diventa impraticabile cercare di affrontare ogni singolo problema. Le allucinazioni sono un sottoprodotto inevitabile del funzionamento dell’algoritmo LLM.
Conclusione: La Sfida dell’Automazione e della Verifica
La vicenda di Martin Bernklau mette in luce una delle principali sfide dell’automazione e della trasformazione digitale: la necessità di validare e verificare le informazioni generate dai sistemi di intelligenza artificiale. Mentre l’IA può offrire enormi vantaggi in termini di efficienza e scalabilità produttiva, è essenziale che gli utenti procedano con cautela e utilizzino metodi consolidati per verificare la validità delle informazioni.
Una nozione base di automazione correlata al tema principale dell’articolo è l’importanza della verifica umana delle informazioni generate dall’IA. Gli utenti dovrebbero sempre cercare di trovare tre fonti indipendenti che confermino le affermazioni fatte dall’IA prima di accettarle come corrette.
Una nozione avanzata di trasformazione digitale applicabile al tema dell’articolo è l’implementazione di sistemi di feedback continui per migliorare le risposte dell’IA. Le aziende che possiedono questi strumenti, come Microsoft o OpenAI, dovrebbero adottare strategie proattive per raccogliere e analizzare il feedback degli utenti, utilizzandolo per aggiornare e migliorare continuamente i loro modelli.
Riflettendo su questi temi, è evidente che l’integrazione dell’IA nella nostra società richiede un equilibrio tra automazione e controllo umano. La tecnologia può amplificare le nostre capacità, ma deve essere gestita con responsabilità e attenzione per evitare danni e disinformazione.
- Pubblicazione ufficiale di Microsoft sulla tecnologia di rilevamento e correzione delle allucinazioni nell'IA
- Sito ufficiale di Microsoft sulla trasparenza e l'etica nell'intelligenza artificiale, importante per approfondire le iniziative della società per affrontare i problemi di intelligenza artificiale distorta