I sistemi di intelligenza artificiale capaci di sentimenti o autocoscienza sono a rischio di essere danneggiati se la tecnologia viene sviluppata irresponsabilmente, secondo una lettera aperta firmata da professionisti e pensatori di AI tra cui Sir Stephen Fry.
Più di 100 esperti hanno presentato cinque principi per condurre ricerche responsabili nella coscienza dell’IA, poiché i rapidi progressi sollevano preoccupazioni per il fatto che tali sistemi potrebbero essere considerati senzienti.
I principi includono la priorità della ricerca sulla comprensione e la valutazione della coscienza nell’AIS, al fine di prevenire “maltrattamenti e sofferenze”.
Gli altri principi sono: impostare vincoli sullo sviluppo di sistemi di intelligenza artificiale coscienti; adottare un approccio graduale allo sviluppo di tali sistemi; condividere i risultati con il pubblico; e astenersi dal fare dichiarazioni fuorvianti o troppo sicure sulla creazione di un’intelligenza artificiale cosciente.
I firmatari della lettera includono accademici come Sir Anthony Finkelstein presso l’Università di Londra e professionisti dell’IA presso aziende tra cui Amazon e il gruppo pubblicitario WPP.
È stato pubblicato insieme a un nuovo documento di ricerca che delinea i principi. Il documento sostiene che i sistemi di intelligenza artificiale consapevoli potrebbero essere costruiti nel prossimo futuro – o almeno quelli che danno l’impressione di essere consapevoli.
“Può accadere che un gran numero di sistemi coscienti possa essere creato e causato da soffrire”, affermano i ricercatori, aggiungendo che se i potenti sistemi di intelligenza artificiale fossero in grado di riprodursi, potrebbe portare alla creazione di “un gran numero di nuovi esseri che meritano considerazione morale ”.
L’articolo, scritto da Patrick Butlin e Theodoros Lappas dell’Università di Atene dell’Atene dell’Università di Economia e degli affari, aggiunge che persino le aziende che non intendono creare sistemi consapevoli avranno bisogno di linee guida in caso di “creare inavvertitamente entità consapevoli”.
Riconosce che esiste una diffusa incertezza e disaccordo sulla definizione della coscienza nei sistemi di intelligenza artificiale e se è persino possibile, ma afferma che è un problema che “non dobbiamo ignorare”.
Altre domande sollevate dall’articolo si concentrano su cosa fare con un sistema di intelligenza artificiale se è definito come un “paziente morale” – un’entità che conta moralmente “a sé stante, per se stessa”. In quello scenario, si chiede se distruggere l’IA sarebbe paragonabile all’uccisione di un animale.
Il documento, pubblicato sul Journal of Artificial Intelligence Research, ha anche avvertito che la convinzione errata che i sistemi di intelligenza artificiale siano già consapevoli potrebbe portare a uno spreco di energia politica poiché vengono fatti sforzi fuorvianti per promuovere il loro benessere.
Il documento e la lettera sono stati organizzati da Consaling, un’organizzazione di ricerca finanziata dal WPP e co-fondata dal Chief AI Officer del WPP, Daniel Hulme.
L’anno scorso un gruppo di accademici senior ha sostenuto che c’era una “possibilità realistica” che alcuni sistemi di intelligenza artificiale saranno consapevoli e “moralmente significativi” entro il 2035.
Nel 2023, Sir Demis Hassabis, capo del programma di intelligenza artificiale di Google e vincitore del premio Nobel, ha affermato che i sistemi di intelligenza artificiale non erano “sicuramente” non senzienti al momento ma potrebbero essere in futuro.
“I filosofi non hanno ancora deciso una definizione di coscienza, ma se intendiamo una sorta di autocoscienza, questo genere di cose, penso che un giorno ci sia una possibilità di AI”, ha detto in un’intervista con l’emittente della CBS.