L’intelligenza artificiale è al centro del dibattito: arrivano novità importanti che vedono USA e UE fare fronte comune con la creazione di un codice di condotta per questa tecnologia.
In queste settimane non si parla d’altro che di intelligenza artificiale. Arrivano importanti aggiornamenti sul tema: USA e UE stanno facendo fronte comune per regolamentare questa tecnologia all’avanguardia, davvero potente, che seppur rivoluzionaria e ricca di vantaggi, cela al suo interno anche lati oscuri.
Magari anche tu hai toccato con mano la sua efficacia per esempio testando ChatGPT, chatbot basato sull’IA creato dall’organizzazione OpenAI, punto di riferimento del settore, e sei rimasto affascinato dal suo funzionamento. Funzionamento che sembra quasi da film di fantascienza. Se l’IA affonda le sue origini negli anni Cinquanta del Novecento, nel corso del tempo si è sempre più evoluta: a oggi questo sistema informatico, capace di apprendere le nozioni dalle esperienze che incontra, riesce a imitare il modo di ragionare dell’uomo.
Questo viene molto utile nell’ambito delle ricerche in campo medico (per esempio grazie all’intelligenza artificiale di recente è stato scoperto un antibiotico nel giro di poche ore) come nella gestione della vita quotidiana, pensiamo per esempio agli assistenti personali che sfruttano questa innovazione, come Alexa.
Ma non mancano dei potenziali rischi celati in questa tecnologia e proprio per questo UE e USA stanno correndo ai ripari finalizzato una regolamentazione nei suoi confronti. Scopriamo di cosa si tratta.
Il 2023 è ricco di novità per l’intelligenza artificiale (qui trovi un approfondimento). Alcuni sono molto attratti da questa innovazione, altri invece la guardano con un po’ di timore, forse influenzati dai film apocalittici in cui le tecnologie prendono il sopravvento sull’umanità.
Se i suoi vantaggi sono tanti, come quello di semplificare le vite e ridurre a zero l’errore umano, non mancano innumerevoli contro tra cui il fatto che è autonoma nelle sue decisioni, dettate dalla sua programmazione iniziale, che non sempre sono però in realtà quelle giuste per il contesto e l’evoluzione dei fatti.
A fronte di queste implicazioni, si sta mettendo un freno all’IA con azioni destinate a regolamentarla. In particolare UE e USA stanno lavorando all’unisono per applicare un codice di condotta su questa tecnologia di cui ben presto vedrà alla luce una prima bozza.
Questo è quanto comunicato di recente dal segretario di Stato americano, Antony Blinken, e dalla vicepresidente della Commissione Ue, Margrethe Vestager, nell’ambito di una conferenza stampa tenutasi in Svezia a margine del Consiglio UE-USA incentrato sul commercio e il tech.
Il codice di condotta per l’IA in arrivo è a base volontaria e potrà essere implementato dai Paesi che ne condividono gli assunti come dalle aziende. I suoi punti chiave anticipano quelli dell’AI Act, regolamento dell’Ue che è attualmente alla fase della negoziazione e che quindi deve entrare ancora in vigore.
Intanto la Commissione Ue ha imposto ai suoi funzionari il divieto di utilizzo dei software basati sull’IA per la redazione dei testi pubblici, soprattutto per quelli che sono vincolanti dal punto di vista giuridico nonché per i processi più critici e di massima urgenza.