Le Pays De France - Appello di 25 esperti ai governi per evitare i rischi delle IA

Paris -
Appello di 25 esperti ai governi per evitare i rischi delle IA

Appello di 25 esperti ai governi per evitare i rischi delle IA

Su Science in vista del Summit a Seoul

Dimensione del testo:

Instabilità sociale, manipolazione di massa, criminalità su larga scala e guerre combattute con macchine autonome: sono alcuni dei gravi rischi che stiamo correndo mentre i leader mondiali stanno facendo troppo poco. A lanciare l'allarme, rivolgendosi a leader e aziende, sono 25 tra i maggiori esperti di IA a livello mondiale provenienti da Stati Uniti, Cina, Europa e Regno Unito, guidati da Yoshua Bengio, dell'Università di Montreal in Canada, in una lettera pubblicata su Science in vista per prossimo summit internazionale sulla sicurezza dell'IA che si svolgerà a Seoul il 21 e 22 maggio. "Durante l'ultimo vertice sull'intelligenza artificiale, il mondo ha convenuto che abbiamo bisogno di agire, ma ora è il momento di passare da proposte vaghe a impegni concreti", ha detto Philip Torr, dell'Università di Oxford e tra gli autori dello studio. "Questo documento - ha aggiunto - fornisce molte raccomandazioni importanti su ciò che aziende e governi dovrebbero impegnarsi a fare". Secondo i 25 autori della lettera, il mondo dei decisori politici e delle grandi aziende sta facendo troppo poco rispetto ai rapidi progressi delle IA che pongono problemi di sicurezza sempre più gravi in moltissimi ambiti. Nel volgere di pochissimi anni potrebbero aprirsi scenari catastrofici, in particolare sulla stabilità sociale, sorveglianza pervasiva, manipolazione di massa, crimini informatici su vasta scala e infine facilitare sistemi di guerra automatizzati. E' dunque imperativo aumentare enormemente gli investimenti in sicurezza che sono oggi quasi inesistenti, tanto che non esistono né meccanismi né istituzioni capaci di prevenire abusi, e richiedere alle grandi aziende di IA di dare priorità alla sicurezza e dimostrare che i loro sistemi non possono causare danni, spostando l'onere di dimostrare la sicurezza agli sviluppatori di IA.

(V.Blanchet--LPdF)