I paesi del G7 concordano sull’intelligenza artificiale: il processo di Hiroshima è iniziato


Accoglienza /


ChatGPT Strumenti di intelligenza artificiale come questi hanno suscitato scalpore negli ultimi mesi. La rapida crescita della tecnologia ha causato preoccupazione in tutto il mondo. Recentemente riuniti in Giappone Paesi del G7 I suoi leader hanno annunciato che verrà implementata una serie di regolamenti per gli strumenti di intelligenza artificiale produttivi.

I paesi del G7 lavorano per la regolamentazione globale dell’IA

Recentemente, l’intelligenza artificiale è stata criticata in molte parti del mondo. ha luogo. I paesi del G7, che hanno rilasciato una dichiarazione congiunta per affrontare le preoccupazioni, hanno dichiarato:Processo di HiroshimaHa detto che stavano per iniziare. Questo accordo si concentrerà sulla creazione di standard globali basati su valori condivisi.

Il primo ministro giapponese Fumio Kishidaha evidenziato l’importanza di un approccio incentrato sull’uomo nello sviluppo dell’intelligenza artificiale. Ha chiesto la condivisione dei dati su questo tema a livello globale. Kishida ha anche affermato che verrà fornito un sostegno finanziario per impedire l’uso dell’intelligenza artificiale per scopi dannosi o false informazioni.




CEO di ChatGPT sorpreso: la regolamentazione è la chiave per l’intelligenza artificiale

Lo sviluppatore di ChatGPT ha chiesto la regolamentazione dell’intelligenza artificiale. Secondo il CEO di OpenAI, il pericolo cresce di giorno in giorno.

Il processo di Hiroshima segue la precedente decisione normativa dei paesi del G7. I paesi che adottano “l’approccio equilibrato basato sul rischio” ritengono che gli studi sull’intelligenza artificiale dovrebbero continuare. Ma molti Paesi prima, tra cui l’Italia e l’Ue Divieti temporanei di ChatGPT applicato.

Dall’altro la Commissione EuropeaLegge sull’intelligenza artificialeSappiamo che stai lavorando a un accordo chiamato “. La Commissione, pioniera in questo campo, classifica i progetti di intelligenza artificiale come rischi “inaccettabili”, “alti”, “limitati” e “minimi”.

In precedenza, il CEO di OpenAI Sam Altman ha anche affermato che la regolamentazione dell’intelligenza artificiale è essenziale. Ha sottolineato l’importanza di compiere diversi passi, tra cui un’istituzione che concederà licenze alle aziende che sviluppano strumenti di intelligenza artificiale.

Quindi cosa ne pensi di questo problema? Puoi condividere le tue opinioni con noi nella sezione Commenti qui sotto.

Cajetan Longo

"Tipico nerd dei social media. Giocatore. Appassionato guru di Internet. Generale piantagrane. Studioso del web."

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *