TLAXCALA تلاكسكالا Τλαξκάλα Тлакскала la red internacional de traductores por la diversidad lingüística le réseau international des traducteurs pour la diversité linguistique the international network of translators for linguistic diversity الشبكة العالمية للمترجمين من اجل التنويع اللغوي das internationale Übersetzernetzwerk für sprachliche Vielfalt a rede internacional de tradutores pela diversidade linguística la rete internazionale di traduttori per la diversità linguistica la xarxa internacional dels traductors per a la diversitat lingüística översättarnas internationella nätverk för språklig mångfald شبکه بین المللی مترجمین خواهان حفظ تنوع گویش το διεθνής δίκτυο των μεταφραστών για τη γλωσσική ποικιλία международная сеть переводчиков языкового разнообразия Aẓeḍḍa n yemsuqqlen i lmend n uṭṭuqqet n yilsawen dilsel çeşitlilik için uluslararası çevirmen ağı la internacia reto de tradukistoj por la lingva diverso

 23/07/2018 Tlaxcala, the international network of translators for linguistic diversity Tlaxcala's Manifesto  
English  
 UNIVERSAL ISSUES 
UNIVERSAL ISSUES / Facciamo la conoscenza di Norman, la prima Intelligenza Artificiale psicopatica al mondo
Date of publication at Tlaxcala: 28/06/2018
Original: Meet Norman, the world’s first psychopath AI

Facciamo la conoscenza di Norman, la prima Intelligenza Artificiale psicopatica al mondo

Kavita Iyer

Translated by  Nickal88

 

Quest’Intelligenza Artificiale chiamata Norman è stata addestrata a pensare come uno psicopatico

I ricercatori del Media Lab del MIT (Massachusetts Institute of Technology) hanno sviluppato un’IA (Intelligenza Artificiale), che loro affermano sia la manifestazione dei processi mentali più vicini a quelli “psicopatici”.

I ricercatori hanno soprannominato “Norman” la rete neurale (dal nome di Norman Bates di Hitchcock nel film Psycho degli anni ’60). Stando a quel che si dice, a quanto pare, il cervello computer di Norman ha avuto origine da un insolito processo di addestramento, in cui l’Intelligenza Artificiale è stata distorta dall’esposizione agli “angoli più oscuri di Reddit” durante il suo addestramento iniziale, che in ultima analisi ha determinato lo sviluppo di tendenze di elaborazione psicopatica dei dati. Norman è stato alla fine soprannominato “IA psicopatica”, dopo che i test psicologici hanno rivelato modelli associati a tratti psicopatici negli umani.
 
I ricercatori descrivono Norman come “un’IA psicotica che soffre di disturbo allucinatorio cronico; donata alla scienza dal MIT Media Laboratory per lo studio dei pericoli dell’Intelligenza Artificiale con qualcosa che è andato storto, se sono utilizzati dati parziali in algoritmi di apprendimento automatico. “Fondamentalmente, il gruppo di lavoro del MIT ha creato Norman come parte di un esperimento, per vedere quale addestramento di IA sui dati “dagli angoli reconditi della rete”, avrebbe avuto in merito alla sua visione del mondo.
 
Mentre Norman è stato addestrato su immagini inquietanti di morte, selezionate da un gruppo sul sito Web Reddit, un’altra IA “normale” è stata addestrata su immagini più amorevoli di gatti, uccelli e persone, come parte dello stesso studio. Dopo l’esposizione alle immagini, sia a Norman che all’IA regolare, che è in grado di interpretare le immagini, sono stati poi mostrati dei disegni con macchie d’inchiostro ed è stato chiesto cosa vi vedessero.
 
L’Intelligenza Artificiale è stata sottoposta al test di Rorschach(1) – test con macchie d’inchiostro, usato dagli psicologi per capire e valutare meglio lo stato mentale del paziente, cioè se percepisce il mondo in una luce positiva o negativa.
 
Mentre la visualizzazione di Norman era continuamente demoralizzante, in quanto vedeva omicidio e violenza in ogni immagine, d’altra parte, l’IA normale vedeva nelle stesse immagini astratte immagini molto più allegre.
 
Per esempio, quello che l’IA “normale” definiva “un gruppo di uccelli appollaiato su un ramo di un albero”, Norman lo ha considerato un uomo folgorato.
 
Oppure, quando è stata mostrata una forma astratta, dove l’IA “normale” vede un paio di persone in piedi l’una accanto all’altra, Norman vi vede un uomo che salta da una finestra.

In un’altra, dove un’IA normale ha visto “una foto in bianco e nero di un uccellino”, Norman vi ha visto “un uomo che viene spinto in una macchina impastatrice”.
 
Il professor Iyad Rahwan, uno dei tre ricercatori che ha sviluppato Norman, ha dichiarato alla BBC: “I dati contano più dell’algoritmo. Ciò evidenzia l’idea che i dati che utilizziamo per addestrare l’Intelligenza Artificiale, si riflettono nel modo in cui l’IA percepisce il mondo e come essa si comporta.”
 
Secondo i ricercatori, Norman rappresenta un caso di studio sui pericoli dell’Intelligenza Artificiale con qualcosa che è andato storto, quando dati parziali e viziati sono usati negli algoritmi di apprendimento automatico. Di conseguenza, l’IA è parziale quando cerca di capire le situazioni della vita reale. Quindi, sarebbe sbagliato incolpare l’algoritmo, in quanto il set di dati di addestramento, utilizzato per creare l’intelligenza artificiale è altrettanto importante. In parole più semplici, se l’intelligenza artificiale è addestrata su dati dannosi, essa stessa diventerà cattiva.
 

L’anno scorso, un rapporto affermava che le decisioni di affidamento nei tribunali degli Stati Uniti erano prevenute contro le persone di colore, dal momento che il programma per computer utilizzato dalla corte aveva falle nei dati di training. 





Courtesy of Comedonchisciotte
Source: https://www.techworm.net/2018/06/norman-first-psychopath-ai.html
Publication date of original article: 05/06/2018
URL of this page : http://www.tlaxcala-int.org/article.asp?reference=23685

 

Tags: NormanIntelligenza Artificiale (AI)USAMIT
 

 
Print this page
Print this page
Send this page
Send this page


 All Tlaxcala pages are protected under Copyleft.