Cos'è l'allucinazione AI e come la riconosci?

Cos'è l'allucinazione AI e come la riconosci?
I lettori come te aiutano a sostenere MUO. Quando effettui un acquisto utilizzando i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Per saperne di più.

L'allucinazione dell'Intelligenza Artificiale (AI) sembra sconcertante. Probabilmente stai pensando: 'L'allucinazione non è un fenomeno umano?' Beh, sì, era un fenomeno esclusivamente umano finché l'IA non ha iniziato a mostrare caratteristiche umane come il riconoscimento facciale, l'autoapprendimento e il riconoscimento vocale.





MAKEUSEOF VIDEO DEL GIORNO SCORRI PER CONTINUARE CON I CONTENUTI

Sfortunatamente, l'intelligenza artificiale ha assunto alcuni attributi negativi, comprese le allucinazioni. Quindi, l'allucinazione dell'IA è simile al tipo di allucinazione che sperimentano gli esseri umani?





Cos'è l'allucinazione AI?

L'allucinazione dell'intelligenza artificiale si verifica quando un modello di intelligenza artificiale genera output diversi da quanto previsto. Si noti che alcuni modelli di intelligenza artificiale sono addestrati per generare intenzionalmente output non correlati a qualsiasi input (dati) del mondo reale.





Per esempio, i migliori generatori di text-to-art AI , come DALL-E 2, possono generare in modo creativo nuove immagini che possiamo etichettare come 'allucinazioni' poiché non sono basate su dati del mondo reale.

Allucinazione AI nei modelli di elaborazione del linguaggio di grandi dimensioni

Consideriamo come apparirebbe l'allucinazione AI in un modello di elaborazione del linguaggio di grandi dimensioni come ChatGPT. Un'allucinazione di ChatGPT comporterebbe che il bot ti fornisca un fatto errato con qualche affermazione, in modo tale che naturalmente prenderesti tali fatti come verità.



In termini semplici, si tratta di dichiarazioni inventate dal chatbot artificialmente intelligente. Ecco un esempio:

  ChatGPT's response to where Elon Musk's house is located

Su ulteriori query, ChatGPT si è presentato con questo:





  Un ChatGPT richiede ulteriori interrogazioni su dove elon musk's factory is at in brazil

Allucinazione AI nella visione artificiale

Consideriamo un altro campo dell'IA che può sperimentare l'allucinazione dell'IA: Visione computerizzata . Il quiz qui sotto mostra un montaggio 4x4 con due entità che si assomigliano molto. Le immagini sono un mix di patatine e foglie BBQ.

La sfida è selezionare le patatine senza colpire alcuna foglia nel montaggio. Questa immagine potrebbe sembrare complicata per un computer e potrebbe non essere in grado di distinguere tra le patatine e le foglie del barbecue.





  Un montaggio 4x4 di patatine e foglie BBQ

Ecco un altro montaggio con un mix di immagini di barboncino e panino con filo di maiale. Molto probabilmente un computer non sarebbe in grado di distinguerli, mescolando quindi le immagini.

  Un montaggio 4x4 di barboncino e panino di filo di maiale

Perché si verifica l'allucinazione AI?

L'allucinazione dell'IA può verificarsi a causa di esempi contraddittori: dati di input che inducono un'applicazione AI a classificarli erroneamente. Ad esempio, durante l'addestramento delle applicazioni AI, gli sviluppatori utilizzano i dati (immagine, testo o altro); se i dati vengono modificati o distorti, l'applicazione interpreta l'input in modo diverso, fornendo un output errato.

Al contrario, un essere umano può ancora riconoscere e identificare i dati con precisione nonostante le distorsioni. Possiamo etichettare questo come buon senso, un attributo umano che l'IA non possiede ancora. Guarda come l'intelligenza artificiale viene ingannata con esempi contraddittori in questo video:

Per quanto riguarda i grandi modelli basati sul linguaggio come ChatGPT e le sue alternative , le allucinazioni possono derivare da una decodifica imprecisa dal trasformatore (modello di apprendimento automatico).

Nell'intelligenza artificiale, un trasformatore è un modello di apprendimento profondo che utilizza l'auto-attenzione (relazioni semantiche tra le parole in una frase) per produrre un testo simile a quello che un essere umano scriverebbe utilizzando una sequenza codificatore-decodificatore (input-output).

Quindi i trasformatori, un modello di apprendimento automatico semi-supervisionato, possono generare un nuovo corpo di testo (output) dall'ampio corpus di dati di testo utilizzati nella sua formazione (input). Lo fa prevedendo la parola successiva in una serie basata sulle parole precedenti.

Per quanto riguarda l'allucinazione, se un modello linguistico è stato addestrato su dati e risorse insufficienti e imprecisi, ci si aspetta che l'output sia inventato e impreciso. Il modello linguistico potrebbe generare una storia o una narrazione senza incoerenze logiche o connessioni poco chiare.

Nell'esempio seguente, a ChatGPT è stato chiesto di fornire una parola simile a 'rivolta' e che inizi con una 'b'. Ecco la sua risposta:

  Screenshot di ChatGPT che fornisce risposte errate a una domanda

Dopo ulteriori indagini, continuava a dare risposte sbagliate, con un alto livello di sicurezza.

  Screenshot di ChatGPT che fornisce più risposte errate a un prompt

Allora perché ChatGPT non è in grado di dare una risposta precisa a queste richieste?

Potrebbe essere che il modello linguistico non sia attrezzato per gestire prompt piuttosto complessi come questi o che non sia in grado di interpretare il prompt in modo accurato, ignorando il prompt nel dare una parola simile con un alfabeto specifico.

come aumentare la luminosità su Windows 10

Come si individua l'allucinazione dell'IA?

È evidente ora che le applicazioni di intelligenza artificiale hanno il potenziale per allucinare: generare risposte altrimenti dall'output previsto (fatto o verità) senza alcun intento dannoso. E individuare e riconoscere le allucinazioni dell'IA spetta agli utenti di tali applicazioni.

Ecco alcuni modi per individuare le allucinazioni dell'IA durante l'utilizzo di comuni applicazioni di intelligenza artificiale:

1. Modelli di elaborazione del linguaggio di grandi dimensioni

  Immagine che mostra Bing Chat e ChatGPT sui segni con freccia

Sebbene raro, se noti un errore grammaticale nel contenuto prodotto da un modello di elaborazione di grandi dimensioni, come ChatGPT, ciò dovrebbe sollevare un sopracciglio e farti sospettare un'allucinazione. Allo stesso modo, quando il contenuto generato dal testo non sembra logico, non è correlato al contesto fornito o non corrisponde ai dati di input, dovresti sospettare un'allucinazione.

L'uso del giudizio umano o del buon senso può aiutare a rilevare le allucinazioni, poiché gli esseri umani possono facilmente identificare quando un testo non ha senso o segue la realtà.

2. Visione artificiale

  Immagine di circuiti e di una testa umana

In quanto branca dell'intelligenza artificiale, dell'apprendimento automatico e dell'informatica, la visione artificiale consente ai computer di riconoscere ed elaborare immagini come gli occhi umani. Usando reti neurali convoluzionali , fanno affidamento sull'incredibile quantità di dati visivi utilizzati nella loro formazione.

Una deviazione dagli schemi dei dati visivi utilizzati nell'addestramento risulterà in allucinazioni. Ad esempio, se un computer non è stato addestrato con le immagini di una pallina da tennis, potrebbe identificarla come un'arancia verde. Oppure, se un computer riconosce un cavallo accanto a una statua umana come un cavallo accanto a un vero essere umano, allora si è verificata un'allucinazione dell'IA.

Quindi, per individuare un'allucinazione di visione artificiale, confronta l'output generato con ciò che un essere umano [normale] dovrebbe vedere.

3. Auto a guida autonoma

  Ford Crociera Blu 2
Credito immagine: Guado

Grazie all'intelligenza artificiale, le auto a guida autonoma si stanno gradualmente infiltrando nel mercato automobilistico. Pionieri come Tesla Autopilot e Ford BlueCruise hanno difeso la scena delle auto a guida autonoma. Puoi controllare come e cosa vede il Tesla Autopilot per capire un po' come l'intelligenza artificiale alimenta le auto a guida autonoma.

Se possiedi una di queste auto, vorresti sapere se la tua auto AI ha allucinazioni. Un segno sarà se il tuo veicolo sembra deviare dai suoi normali schemi di comportamento durante la guida. Ad esempio, se il veicolo frena o sterza improvvisamente senza una ragione ovvia, il tuo veicolo AI potrebbe avere allucinazioni.

Anche i sistemi di intelligenza artificiale possono avere allucinazioni

Gli esseri umani e i modelli di intelligenza artificiale sperimentano le allucinazioni in modo diverso. Quando si tratta di intelligenza artificiale, le allucinazioni si riferiscono a risultati errati che sono a miglia di distanza dalla realtà o che non hanno senso nel contesto del prompt dato. Ad esempio, un chatbot AI può dare una risposta grammaticalmente o logicamente errata o identificare erroneamente un oggetto a causa del rumore o di altri fattori strutturali.

Le allucinazioni dell'IA non derivano da una mente conscia o subconscia, come osserveresti negli umani. Piuttosto, deriva dall'inadeguatezza o dall'insufficienza dei dati utilizzati nell'addestramento e nella programmazione del sistema di intelligenza artificiale.