7 motivi contro l'uso dell'IA generativa nelle app di messaggistica

7 motivi contro l'uso dell'IA generativa nelle app di messaggistica
I lettori come te aiutano a sostenere MUO. Quando effettui un acquisto utilizzando i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Per saperne di più.

Nell'intelligenza artificiale, si stanno compiendo progressi a livelli senza precedenti, con nuovi sviluppi realizzati quasi settimanalmente. Gli strumenti di intelligenza artificiale generativa come ChatGPT sono ora così popolari che vengono integrati ovunque.





Ma dovremmo? Usare la tecnologia AI per la produttività, l'istruzione e l'intrattenimento ha senso. Tuttavia, le aziende stanno ora pensando di inserirlo direttamente nelle nostre app di messaggistica e questo può rivelarsi distruttivo. Ecco sette motivi per cui.





MAKEUSEOF VIDEO DEL GIORNO SCORRI PER CONTINUARE CON I CONTENUTI

1. I chatbot AI tendono ad avere allucinazioni

Se hai usato ChatGPT, Bing o Bard , sai che i chatbot di intelligenza artificiale generativa tendono ad 'allucinare'. L'allucinazione dell'intelligenza artificiale è quando questi chatbot inventano cose a causa della mancanza di dati di addestramento adeguati sulla query richiesta dall'utente.





In altre parole, forniscono disinformazione ma sembrano fiduciosi al riguardo, come se fosse un dato di fatto. Questo è un grosso problema perché molte persone non controllano i fatti quando usano un chatbot e credono che sia accurato per impostazione predefinita. È uno dei più grandi errori da evitare quando si utilizzano strumenti di intelligenza artificiale .

Quando viene inserito nelle app di messaggistica, la quantità di danno che può fare è ancora maggiore poiché le persone potrebbero usarlo per diffondere (intenzionalmente o meno) informazioni errate tra i loro contatti e sui social media, proliferare propaganda e favorire camere di eco.



2. Alla gente non piace parlare con i robot

  Piccolo robot arancione e argento seduto su un pavimento in moquette con davanti un computer portatile.
Credito immagine: graphicsstudio/ Vecteezy

Pensa a quanto è fastidioso quando cerchi di contattare l'assistenza clienti di un'azienda e sei costretto a parlare con un chatbot invece che con un vero dirigente umano che può effettivamente comprendere le sfumature del tuo problema e offrire una guida adeguata.

Lo stesso vale per le conversazioni personali. Immagina di parlare con il tuo amico e, a metà strada, ti rendi conto che ha usato l'intelligenza artificiale per rispondere ai tuoi messaggi per tutto questo tempo invece di farlo da solo in base ai suoi pensieri e opinioni.





Se sei come la maggior parte delle persone, ti sentiresti immediatamente offeso e percepiresti l'uso dell'intelligenza artificiale in una conversazione privata come insensibile, inquietante e persino passivo-aggressivo, come se l'altra persona non ti considerasse degno del suo tempo, della sua attenzione e empatia.

Usare l'intelligenza artificiale per scrivere e-mail, ad esempio, è comprensibile poiché si tratta di un'interazione professionale, ma usarla nelle conversazioni personali non sarà qualcosa che qualcuno vorrebbe incoraggiare. Una volta svanita la novità della tecnologia, diventerà scortese usarla in questo contesto.





3. L'intelligenza artificiale non può copiare la tua tonalità unica

Gli strumenti di intelligenza artificiale generativa oggi ti consentono già di cambiare la tonalità del tuo messaggio, come formale, allegro o neutro a seconda di chi stai scrivendo e di come vuoi imbatterti. Composizione magica nei messaggi di Google , ad esempio, ti consente di fare lo stesso.

Anche se va bene, tieni presente che queste tonalità sono addestrate in base ai dati di addestramento impostati e non alla cronologia della chat personale, quindi non possono replicare la tua tonalità unica o gli emoji che useresti di solito.

clic sinistro del mouse non funziona Windows 10

Potrebbe non interessarti molto, soprattutto se stai usando l'intelligenza artificiale per scrivere semplici email di lavoro per le quali tutti usano più o meno la stessa tonalità formale. Ma conta molto più di quanto potresti realizzare quando lo usi per parlare con i tuoi amici e familiari su un'app di messaggistica.

Fino a quando gli strumenti di intelligenza artificiale non ti consentiranno di addestrare il loro modello linguistico in base alla cronologia della tua chat, non saranno in grado di replicare il tuo dialetto unico e le tue eccentricità. Detto questo, questa sfida non è così difficile da risolvere, quindi potremmo vederla implementata presto.

4. Scrivere buoni suggerimenti richiede tempo

  Uomo che manda un sms sul telefono cellulare

Ottenere i risultati desiderati da un chatbot AI dipende fortemente dalla qualità del tuo prompt. Se scrivi un prompt errato, otterrai una risposta negativa e dovrai perfezionare il prompt fino a ottenere un risultato soddisfacente.

impossibile trovare o caricare la classe principale main

Questo processo ha senso quando si desidera scrivere contenuti di lunga durata, ma è estremamente inefficiente quando si scrivono risposte multiple e brevi in ​​una conversazione informale.

Il tempo necessario per perfezionare i tuoi suggerimenti e ottenere risposte utilizzabili sarà, nella maggior parte dei casi, più del tempo che avresti impiegato se avessi scritto tu stesso i messaggi.

5. L'intelligenza artificiale può produrre risultati offensivi

A parte la precisione, il pregiudizio è uno dei maggiori problemi con l'IA generativa . Alcune persone percepiscono l'IA come imparziale poiché non ha motivazioni proprie. Tuttavia, le persone dietro questi strumenti di intelligenza artificiale sono in definitiva esseri umani con i propri pregiudizi.

In altre parole, il pregiudizio è integrato nel sistema. L'intelligenza artificiale non comprende intrinsecamente ciò che è considerato offensivo e ciò che non lo è, quindi potrebbe, ad esempio, essere addestrata per essere prevenuta contro determinati gruppi di persone o determinate culture, producendo quindi risultati offensivi nel processo.

6. L'IA potrebbe non capire il sarcasmo o l'umorismo

La comprensione da parte dell'intelligenza artificiale delle figure retoriche, come l'ironia e la metafora, sta migliorando nel tempo, ma è ancora lontana dall'essere a un punto in cui può essere utilizzata in una conversazione per riconoscere l'umorismo. Quando abbiamo chiesto al Bardo di Google di essere sarcastico, ad esempio, i risultati sono stati incostante.

  Chatbot di Google Bard che tenta di essere sarcastico

In alcuni casi, era davvero divertente e giocava con il mio sarcasmo. Ma in altri casi, è tornata per impostazione predefinita a una risposta poco divertente con lo stampino o si è semplicemente rifiutata di partecipare del tutto alla conversazione, dicendo che poiché è solo un LLM, non può aiutarmi con la mia domanda.

7. La dipendenza dall'intelligenza artificiale può portare a una scarsa comunicazione

Un altro problema sottile ma sostanziale con l'integrazione dell'IA generativa nelle app di messaggistica è come può influenzare la nostra capacità di comunicare. Se ci affidiamo sempre più all'intelligenza artificiale per conversare tra di noi, potrebbe ostacolare la nostra capacità di farlo allenare la nostra intelligenza emotiva e abilità sociali.

Il punto qui è che più esternalizziamo i nostri bisogni sociali all'intelligenza artificiale, peggio riusciremo a comunicare idee attraverso mezzi organici. In altre parole, più usi l'intelligenza artificiale per parlare con i tuoi contatti, più è probabile che tu degradi la qualità delle tue relazioni.

Non tutto deve avere l'intelligenza artificiale

Spesso, con l'avvento della nuova tecnologia, siamo così impegnati a capire come usarla che non riusciamo a discutere se dovremmo usarla in primo luogo.

Sebbene abbia perfettamente senso utilizzare l'IA generativa per scrivere e-mail, raccogliere idee o creare immagini per presentazioni, la sua integrazione nelle app di messaggistica suscita molte critiche.