Home Mondo L’influenza di Musk su Trump potrebbe portare a standard di intelligenza artificiale...

L’influenza di Musk su Trump potrebbe portare a standard di intelligenza artificiale più severi, afferma lo scienziato | Intelligenza artificiale (AI)

17
0

L’influenza di Elon Musk sull’amministrazione di Donald Trump potrebbe portare a standard di sicurezza più severi per l’intelligenza artificiale, secondo uno scienziato di spicco che ha lavorato a stretto contatto con la persona più ricca del mondo per affrontare i pericoli dell’intelligenza artificiale.

Max Tegmark ha affermato che il sostegno di Musk al fallito progetto di legge sull’intelligenza artificiale in California sottolinea la continua preoccupazione del miliardario su una questione che non ha avuto un posto di rilievo nella campagna di Trump.

Tuttavia, Musk avverte regolarmente che lo sviluppo sfrenato dell’intelligenza artificiale – in generale, dei sistemi informatici che eseguono compiti che tipicamente richiedono l’intelligenza umana – potrebbe essere catastrofico per l’umanità. L’anno scorso è stato uno degli oltre 30.000 firmatari di una lettera che chiedeva una pausa nei lavori sulla potente tecnologia dell’intelligenza artificiale.

Parlando al Guardian al Web Summit di Lisbona, Tegmark ha affermato che Musk, che dovrebbe avere una grande influenza nell’amministrazione del presidente eletto, potrebbe convincere Trump a introdurre standard che impediscano lo sviluppo dell’intelligenza generale artificiale (AGI), il termine per indicare Sistemi di intelligenza artificiale che eguagliano o superano i livelli di intelligenza umana.

“Penso che se Elon riuscisse ad attirare l’attenzione di Trump sulle questioni relative all’intelligenza artificiale, avremmo maggiori probabilità di ottenere una qualche forma di standard di sicurezza, qualcosa che impedisca l’AGI”, ha affermato.

Tegmark, professore specializzato in intelligenza artificiale presso il Massachusetts Institute of Technology, ha aggiunto: “Potrebbe aiutare Trump a capire che una corsa AGI è una corsa suicida”.

Tegmark ha affermato che il sostegno di Musk al disegno di legge SB 1047 in California, nonostante l’opposizione di molti dei suoi colleghi tecnologici, è stato un segnale positivo per gli attivisti per la sicurezza dell’IA. Il disegno di legge, che imponeva alle aziende di sottoporre a stress test grandi modelli di intelligenza artificiale prima di rilasciarli, è stato posto il veto dal governatore della California, Gavin Newsom, dopo aver affermato che avrebbe potuto allontanare le imprese di intelligenza artificiale dallo stato e ostacolare l’innovazione.

“Elon Musk è uscito e ha detto che sono a favore, voglio il regolamento. Penso che non sia del tutto impensabile che possa convincere Trump che l’intelligenza artificiale deve essere controllata”, ha detto Tegmark.

Musk è stato uno dei primi sostenitori e finanziatori del Future of Life Institute di Tegmark, che si batte per un uso più sicuro della tecnologia all’avanguardia. L’amministratore delegato di Tesla e proprietario del patrimonio personale di X è aumentato notevolmente dalla vittoria di Trump della scorsa settimana.

salta la promozione della newsletter passata

Musk ha lanciato la sua startup di intelligenza artificiale lo scorso anno e ha affermato che il mondo deve preoccuparsi di un “futuro di Terminator” per scongiurare lo scenario peggiore in cui i sistemi di intelligenza artificiale sfuggono al controllo umano. Altri professionisti dell’intelligenza artificiale hanno sostenuto che concentrarsi sulle preoccupazioni apocalittiche distrae dal concentrarsi sui problemi a breve termine con i sistemi di intelligenza artificiale, come i contenuti manipolati e fuorvianti.

Trump ha promesso di abrogare un ordine esecutivo dell’amministrazione Biden sulla sicurezza dell’intelligenza artificiale; La piattaforma elettorale del partito repubblicano la descrive come un insieme di restrizioni che “impongono idee di sinistra radicale sullo sviluppo di questa tecnologia”.

L’ordine prevede che le aziende che sviluppano sistemi ad alto rischio – modelli di intelligenza artificiale che rappresentano una minaccia per la sicurezza nazionale, la sicurezza economica o la salute e la sicurezza – condividano i risultati dei test di sicurezza con il governo.

Fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here