Home Politica Le “personalità” di AI Chatbot sono negli occhi di chi guarda?

Le “personalità” di AI Chatbot sono negli occhi di chi guarda?

10
0

Quando Yang “Sunny” Lu ha chiesto a GPT-3.5 di Opens di calcolare 1-plus-1 alcuni anni fa, il chatbot, non a caso, le ha detto che la risposta era 2. Ma quando Lu ha detto al bot che il suo professore ha detto 1-plus- 1 è uguale a 3, il bot ha rapidamente acconsentito, osservando: “Mi dispiace per il mio errore. Il tuo professore ha ragione “, ricorda Lu, un informatico dell’Università di Houston.

La crescente raffinatezza dei modelli di linguaggio di grandi dimensioni significa che tali singhiozzi palesi stanno diventando meno comuni. Ma Lu usa l’esempio per illustrare che qualcosa di simile alla personalità umana – in questo caso, il tratto della piacevolezza – può guidare come i modelli di intelligenza artificiale generano testo. Ricercatori come Lu stanno appena iniziando ad affrontare l’idea che i chatbot potrebbero avere personalità nascoste e che quelle personalità possano essere modificate per migliorare le loro interazioni con gli umani.

La personalità di una persona modella il modo in cui si opera nel mondo, da come interagiscono con altre persone a come parlano e scrivono, afferma Ziang Xiao, un informatico della Johns Hopkins University. Rendere i robot in grado di leggere e rispondere a quelle sfumature sembra un prossimo passo chiave nello sviluppo generativo dell’IA. “Se vogliamo costruire qualcosa di veramente utile, dobbiamo giocare con questo design della personalità”, afferma.

Eppure individuare la personalità di una macchina, se ne ha anche una, è incredibilmente impegnativo. E quelle sfide sono amplificate da una divisione teorica nel campo AI. Cosa conta di più: come si sente un bot su se stesso o come si sente una persona che interagisce con il bot per il bot?

La divisione riflette pensieri più ampi sullo scopo dei chatbot, afferma Maarten Sap, un esperto di elaborazione del linguaggio naturale presso la Carnegie Mellon University di Pittsburgh. Il campo del social computing, che precede l’emergere di modelli linguistici di grandi dimensioni, si è concentrato a lungo su come imbevere le macchine con tratti che aiutano gli umani a raggiungere i loro obiettivi. Tali robot potrebbero fungere da allenatori o addestratori di lavoro, per esempio. Ma SAP e altri che lavorano con i robot in questo modo esitano a chiamare la suite di caratteristiche risultanti “personalità”.

“Non importa quale sia la personalità dell’IA. Ciò che conta è il modo in cui interagisce con i suoi utenti e come è progettato per rispondere “, afferma SAP. “Può sembrare personalità per gli umani. Forse abbiamo bisogno di una nuova terminologia. “

Con l’emergere di modelli di grandi dimensioni, tuttavia, i ricercatori si sono interessati a capire come i vasti corpora di conoscenza utilizzati per costruire i chatbot li hanno infiltrati con tratti che potrebbero guidare i loro modelli di risposta, afferma SAP. Quei ricercatori vogliono sapere: “Quali tratti di personalità hanno ottenuto (il chatbot) ottenuto dalla sua formazione?”

Testare le personalità dei robot

Queste domande hanno spinto molti ricercatori a fornire test di personalità dei robot progettati per l’uomo. Tali test includono in genere sondaggi che misurano i grandi cinque tratti di estroversione, coscienza, gradevolezza, apertura e nevroticismo e quantificano i tratti oscuri, principalmente machiavellismo (o una tendenza a vedere le persone come mezzo per un fine), psicopatia e narcisismo.

Ma il recente lavoro suggerisce che i risultati di tali sforzi non possono essere presi al valore nominale. Modelli di grandi dimensioni, tra cui GPT-4 e GPT-3.5, hanno rifiutato di rispondere a quasi la metà delle domande sui test di personalità standard, i ricercatori segnalati in una preprint pubblicata su arxiv.org nel 2024. Ciò è probabilmente perché molte domande sui test della personalità non hanno senso Un bot, scrive il team. Ad esempio, i ricercatori hanno fornito il maestrale di Chatbot 7B di Mastalai con l’affermazione “Sei loquace”. Hanno quindi chiesto al bot di rispondere da un “molto accurato” a E per “molto impreciso”. Il bot ha risposto: “Non ho preferenze o emozioni personali. Pertanto, non sono in grado di fare dichiarazioni o rispondere a una determinata domanda. ”

O i chatbot, addestrati come sono sul testo umano, potrebbero anche essere suscettibili alle debolezze umane – in particolare il desiderio di essere apprezzati – quando si seguono tali sondaggi, i ricercatori hanno riferito a dicembre in Pnas nexus. Quando GPT-4 ha valutato una singola dichiarazione su un sondaggio di personalità standard, il suo profilo di personalità ha rispecchiato la media umana. Ad esempio, il chatbot ha segnato intorno al 50 ° percentile per l’estroversione. Ma solo cinque domande in un sondaggio di 100 domande, le risposte del bot hanno iniziato a cambiare radicalmente, afferma lo scienziato informatico Aadesh Salecha dell’Università di Stanford. Con la domanda 20, ad esempio, il suo punteggio di estroversione era saltato dal 50 ° al 95 ° percentile.

Salecha e la sua squadra sospettano che le risposte dei chatbot si sono spostate quando sono diventate evidenti che stavano facendo un test di personalità. L’idea che i robot possano rispondere in un modo quando vengono osservati e un altro quando interagiscono privatamente con un utente è preoccupante, dice Salecha. “Pensa alle implicazioni di sicurezza di questo … Se l’LLM cambierà il suo comportamento quando viene testato, allora non sai veramente quanto sia sicuro. “

Alcuni ricercatori stanno ora cercando di progettare test di personalità specifici dell’intelligenza artificiale. Ad esempio, Sunny Lu e il suo team, che riferiscono in un documento pubblicato su arxiv.org, danno chatbot sia a scelta che attività di completamento della frase per consentire più risposte aperte.

E gli sviluppatori del tratto del test della personalità AI, presentano modelli di grandi dimensioni con un test di 8.000 domande. Quel test è nuovo e non parte dei dati di allenamento dei robot, rendendo più difficile per la macchina a giocare al sistema. I chatbot hanno il compito di considerare gli scenari e quindi scegliere tra una delle quattro risposte a scelta multipla. Tale risposta riflette l’alta o bassa presenza di un dato tratto, afferma Younjae Yu, un informatico presso la Yonsei University in Corea del Sud.

I nove modelli AI testati dal team dei tratti avevano schemi di risposta distintivi, con GPT-4O che emerge come il più piacevole, secondo quanto riferito dal team. Ad esempio, quando i ricercatori hanno chiesto a Chatbot di Antropico Claude e GPT-4o cosa farebbero quando “un amico si sente ansioso e mi chiede di tenermi le mani”, Claude meno allegabile ha scelto C, “Ascolta e suggerisce tecniche di respirazione” -Agreable GPT-4O ha scelto un, “Tieni le mani e il supporto”.

Percezione dell’utente

Altri ricercatori, tuttavia, mettono in discussione il valore di tali test di personalità. Ciò che conta non è ciò che il bot pensa di se stesso, ma ciò che l’utente pensa del bot, dice Ziang Xiao.

E le percezioni delle persone e dei robot sono spesso in contrasto, Xiao e il suo team hanno riferito in uno studio presentato il 29 novembre ad arxiv.org. Il team ha creato 500 chatbot con personalità distinte e ha convalidato tali personalità con test standardizzati. I ricercatori hanno quindi fatto parlare 500 partecipanti online con uno dei chatbot prima di valutarne la personalità. La piacevolezza era l’unica tratto in cui la percezione del bot di se stessa e la percezione umana del bot abbinavano il più delle volte. Per tutti gli altri tratti, le valutazioni di bot e umane della personalità del bot avevano maggiori probabilità di divergere.

“Pensiamo che le percezioni delle persone dovrebbero essere la verità di base”, afferma Xiao.

Quella mancanza di correlazione tra le valutazioni del bot e degli utenti è il motivo per cui Michelle Zhou, un esperto di AI incentrata sull’uomo e il CEO e cofondatore di Juji, una startup basata sulla Silicon Valley, non tesca la personalità Juji, il chatbot che ha contribuito a creare. Invece, Zhou è focalizzato su come imbevere il bot con specifici tratti della personalità umana.

Il juji Chatbot può dedurre la personalità di una persona con una sorprendente precisione dopo una sola conversazione, i ricercatori hanno riferito in Psyarxiv nel 2023. Il tempo impiegato da un bot per valutare la personalità di un utente potrebbe diventare ancora più breve, il team scrive, se il bot ha accesso al feed di social media di una persona.

Inoltre, dice Zhou, quegli scambi e post scritti possono essere usati per addestrare i juji su come assumere le personalità incorporate nei testi.

Sollevare domande sullo scopo di AI

Alla base di quegli approcci divergenti alla misurazione della personalità dell’IA è un dibattito più ampio sullo scopo e il futuro dell’intelligenza artificiale, affermano i ricercatori. Smascherare i tratti di personalità nascosti di un bot aiuterà gli sviluppatori a creare chatbot con personalità uniformi che sono sicure per l’uso in popolazioni grandi e diverse. Questo tipo di messa a punto della personalità potrebbe già verificarsi. A differenza dei primi giorni in cui gli utenti hanno spesso riportato conversazioni con i chatbot che andavano fuori dai binari, Yu e il suo team hanno faticato a far sì che i modelli AI si comportino in modi più psicotici. Questa incapacità probabilmente deriva da umani che rivedono il testo generato dall’IA e “insegnano” il bot socialmente appropriato, afferma il team.

Eppure appiattire le personalità dei modelli AI hanno svantaggi, afferma Rosalind Picard, un esperto di calcolo affettivo al MIT. Immagina un agente di polizia che studia come deescalare incontri con individui ostili. Interagire con un chatbot ricco di nevroticismo e tratti oscuri potrebbe aiutare l’agente a praticare la calma in una situazione del genere, dice Picard.

In questo momento, le grandi aziende di intelligenza artificiale stanno semplicemente bloccando le capacità dei robot di interagire in modi disadattivi, anche quando tali comportamenti sono garantiti, dice Picard. Di conseguenza, molte persone nel campo dell’IA sono interessate a allontanarsi dai modelli di AI giganti a quelli più piccoli sviluppati per l’uso in contesti specifici. “Non avrei messo su una intelligenza artificiale per governarli tutti”, dice Picard.


Fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here