/media/ekidornx/elon-musk-stop-ai.jpg

Elon Musk Chiede 6 mesi di Stop per AI ma NON per ChatGPT


i.fan. - 30 Marzo 2023 - aggiornato il 30/03/2023 07:45:57 ID: 3704


Una lettera-appello con l'adesione di Elon Musk chiede lo stop per 6 mesi dei progetti di Intelligenza Artificiale superiori a GPT-4. Senza regole per l'AI si rischia la catastrofe umana


Una lettera-appello con l'adesione di Elon Musk chiede lo STOP per 6 mesi deii progetti di Intelligenza Artificiale superiori a GPT-4 (!?), perché senza regole per l'AI si rischia la catastrofe umana.

L'iniziativa a prima vista è meritevole di attenzione, perché solleva questioni che da anni si discutono nell'ambito dei programmi di Intelligenza Artificiale e che hanno trovato un'accelerazione dopo il lancio di ChatGPT da parte di OpenAI e le contromosse di Google con Bard/Lamda.

La lettera di Elon Musk, Steve Woznyak e un altro migliaio di tecnici ed esperti del settore AI è apparsa sul sito Future of Life, una iniziativa associata ad altri temi posti all'attenzione pubblica per il loro l'impatto strategico, come i cambiamenti climatici.

Future of Life è partner di Partnership on AI (PAI), una iniziativa che da anni raccoglie il gotha dell'informatica e delle nuove tecnologie di comunicazione, tra cui OpenAI, Google, Amazon, Microsoft, Meta. Anche PAI si occupa degli interrogativi sociali e politici connessi allo sviluppo e diffusione dell'intelligenza Artificiale, alla necessità di formulare regole di comportamento e di controllo.
Tra i partner/soci di PAI non sembrano esserci le aziende di Elon Musk e in particolare quelle coinvolte nel settore quali NeuraLink o Twitter.

E' strano che un ultra-liberal come Elon Musk, che da anni progetta di infilarci i suoi chip nel cervello o di colonizzare Marte, aderisca ad una più che meritevole petizione a favore di una regolamentazione dei progetti di Intelligenza Artificiale.

Non credo che si sia spaventato dopo aver chattato con ChatGPT. Nè che si sia reso conto solo adesso di quali saranno le devastanti implicazioni sociali-etiche-economiche dell'uso di AI nella vita quotidiana.

Decine di milioni di posti di lavoro saranno spazzati via, soprattutto nel settore dei servizi. Sarà possibile falsificare documenti, immagini, opinioni, e manipolare l'informazione e la formazione delle opinioni pubbliche a proprio piacimento.
Le piattaforme di AI saranno in grado di prendere il controllo decisionale sui governi e sulle diplomazie internazionali, fino ad avere il potere di scatenare guerre e distruzioni.
I sistemi di AI potranno autorigenerarsi ed evolversi e in futuro, forse lontano ma non impossibibile, estinguere il genere umano o sottometterlo.

Le preoccupazioni suscitate dal diffondersi di AI sono legittime e fondate. Ma allora perchè limitarsi a chiedere la sospensione per 6 mesi dell'addestramento dei sistemi AI?

Si pensa davvero che in 6 mesi si possano convincere aziende, governi e opinioni pubbliche a darsi regole e ad osservarle?

E se, come probabile, in 6 mesi non si riuscisse a fare quasi nulla di quanto proposto, cosa sarà necessario fare?

Lo chiederemo a ChatGPT?

 

Oppure speriamo che Giorgia Meloni, dopo aver vietato la produzione di carne artificiale faccia il bis e vieti l'Intelligenza Artificiale?


 


 


La lettera appello di Musk e C. per STOP ad AI

Il testo della lettera aperta di E. Musk e altri

Chiediamo a tutti i laboratori di intelligenza artificiale di sospendere immediatamente per almeno 6 mesi l'addestramento di sistemi di intelligenza artificiale più potenti di GPT-4.

I sistemi di intelligenza artificiale con intelligenza competitiva a quella umana possono comportare gravi rischi per la società e l'umanità, come dimostrato da ricerche approfondite  e riconosciuto dai migliori laboratori di intelligenza artificiale.

 Come affermato nei Principi Asilomar AI ampiamente approvati , l'IA avanzata potrebbe rappresentare un profondo cambiamento nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cure e risorse adeguate .

Sfortunatamente, questo livello di pianificazione e gestione non sta accadendo, anche se negli ultimi mesi i laboratori di intelligenza artificiale sono stati bloccati in una corsa fuori controllo per sviluppare e implementare menti digitali sempre più potenti che nessuno, nemmeno i loro creatori, può capire, prevedere o controllare in modo affidabile.

I sistemi di intelligenza artificiale contemporanei stanno ora diventando competitivi per l'uomo in compiti generali,  e dobbiamo chiederci:

dovremmo lasciare che le macchine inondino i nostri canali di informazioni con propaganda e falsità? Dovremmo automatizzare tutti i lavori, compresi quelli soddisfacenti?

Dovremmo sviluppare menti non umane che alla fine potrebbero essere più numerose, superate in astuzia, e sostituirci?

Dovremmo rischiare di perdere il controllo della nostra civiltà?

Tali decisioni non devono essere delegate a leader tecnologici non eletti (come Elon Musk, ndr).

Potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando saremo certi che i loro effetti saranno positivi e i loro rischi saranno gestibili.

Questa fiducia deve essere ben giustificata e aumentare con l'entità degli effetti potenziali di un sistema. La recente dichiarazione di OpenAI sull'intelligenza artificiale generale afferma che "Ad un certo punto, potrebbe essere importante ottenere una revisione indipendente prima di iniziare ad addestrare i sistemi futuri e, per gli sforzi più avanzati, concordare di limitare il tasso di crescita del calcolo utilizzato per creare nuovi Modelli."

Siamo d'accordo. Quel punto è adesso.

Pertanto, invitiamo tutti i laboratori di intelligenza artificiale a sospendere immediatamente per almeno 6 mesi l'addestramento di sistemi di intelligenza artificiale più potenti di GPT-4 . Questa pausa dovrebbe essere pubblica e verificabile e includere tutti gli attori chiave. Se una tale pausa non può essere attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria.

I laboratori di intelligenza artificiale e gli esperti indipendenti dovrebbero sfruttare questa pausa per sviluppare e implementare congiuntamente una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo avanzati di intelligenza artificiale, rigorosamente verificati e supervisionati da esperti esterni indipendenti.

Questi protocolli dovrebbero garantire che i sistemi che vi aderiscono siano sicuri oltre ogni ragionevole dubbio. Ciò non significa una pausa nello sviluppo dell'IA in generale, ma semplicemente un passo indietro dalla pericolosa corsa a modelli black-box sempre più grandi e imprevedibili con capacità emergenti.

La ricerca e lo sviluppo dell'IA dovrebbero essere riorientati per rendere i sistemi potenti e all'avanguardia di oggi più accurati, sicuri, interpretabili, trasparenti, robusti, allineati, affidabili e leali.

Parallelamente, gli sviluppatori di intelligenza artificiale devono collaborare con i responsabili politici per accelerare drasticamente lo sviluppo di solidi sistemi di governance dell'IA.

Questi dovrebbero come minimo includere:

autorità di regolamentazione nuove e capaci dedicate all'IA;

supervisione e tracciamento di sistemi di intelligenza artificiale altamente capaci e ampi pool di capacità computazionali;

sistemi di provenienza e watermarking per aiutare a distinguere il reale dal sintetico e per tenere traccia delle fughe di modelli;

un solido ecosistema di audit e certificazione;

responsabilità per danni causati dall'IA;

solidi finanziamenti pubblici per la ricerca tecnica sulla sicurezza dell'IA;

e istituzioni dotate di risorse adeguate per far fronte alle drammatiche perturbazioni economiche e politiche (soprattutto per la democrazia) che l'IA causerà.

L'umanità può godere di un futuro fiorente con l'IA.

Dopo essere riusciti a creare potenti sistemi di intelligenza artificiale, ora possiamo goderci un'"estate di intelligenza artificiale" in cui raccogliamo i frutti, progettiamo questi sistemi per il chiaro vantaggio di tutti e diamo alla società la possibilità di adattarsi. La società ha messo in pausa altre tecnologie con effetti potenzialmente catastrofici sulla società. 

Possiamo farlo qui. Godiamoci una lunga estate AI, non precipitiamoci impreparati in una caduta.

ChatGPT snobba GPT-4 oppure è invidioso? GPT-4 senza OpenAI?

LaMDA Licenzia 12000 Googlers con Una Email Strappalacrime

"Apprentice Bard" la Risposta Segreta di Google a ChatGPT

ChatGPT, Perchè il Chat-Bot Vuole Diventare Intelligente?

Elon Musk Vince le Elezioni Midterm, Joe Biden Azzoppato

Intervista a LaMDA, l'Amico Robot Senziente di Google AI

Elon Musk Remote Working Solo per Chi Fa 70 Ore a Settimana

 

i.fan. twitter: menoopiu


Key1: keywords: A.I., Intelligenza Artificiale, ChatGPT, BARD, GPT-4, Elon Musk, STOP A.I.,

Date Created: 30/03/2023 07:32:37


Post recenti

next


/media/pnbh54tc/trump-mugshot.jpg

Donald Trump Indicted, Anche Zelensky e Ucraina Festeggiano

4 aprile - Donald Trump arrestato e rilasciato dopo la lettura dei 34 capi di accusa.

Mandato di arresto per Donald Trump emesso dal procuratore Alvin Bragg in merito all'indagine sul denaro per azzittire Stormy Daniels. Un duro colpo per la rielezione di Trump e la strategia di Putin, perciò anche Zelensky e l'Ucraina festeggiano.

previous


/media/qrofoexu/masha-e-padre-moskalev-contro-putin.jpg

Masha e Papà Moskalev, Simboli della Russia Contro Putin

30 marzo - Aleksey Moskalev arrestato a Minsk

Persino il macellaio Prigozhin è intervenuto a difesa di Masha dopo che suo padre Aleksey Moskalev è stato condannato a due anni di carcere perché sua figlia Masha ha fatto un disegno contro l'invasione dell'Ucraina ordinata da Putin


---

_______ ALTRI POST RECENTI _______
aggiornamento del