Norman, realizzata la prima intelligenza artificiale psicopatica


Norman, realizzata la prima intelligenza artificiale psicopatica

Share

Norman, realizzata la prima intelligenza artificiale psicopatica

Il team, composto da scienziati in Germania, Francia, Regno Unito e Stati Uniti, ha utilizzato l'intelligenza artificiale per trasferire le posizioni della testa, le espressioni facciali, i movimenti degli occhi e le palpebre di una persona in un video su un'altra persona completamente diversa in un video separato.

Dopo la rivolta dei dipendenti, Google si impegna a non utilizzare l'intelligenza artificiale per scopi militari ma continuera' a collaborare con il governo americano e con il Pentagono. Sembra proprio che i ricercatori del Mit di Boston si siano divertiti parecchio nel lavorare assieme a Norman.

L'intelligenza artificiale sta assumendo sempre maggiori forme.

Le macchie di Rorschach sono state sottoposte a Norman e al contempo ad un'intelligenza artificiale istruita con dataset costituito da persone, oggetti o animali normali: le differenze tra le interpretazioni delle due AI è tanto sconvolgente quanto interessante. E sbaglia il test di Rorschach. La macchia con l'intelligenza 'normale' interpretava come "un gruppo di uccellini su un ramo" per Norman era "un uomo che subiva una scarica elettrica".

In particolare si è voluta testare l'incidenza della qualità e quantità di dati che la macchina ha ricevuto durante la fase di machine learning, e come questi ne hanno definito lo sviluppo.

I 7 principi di Google Pitchai non si è nascosto, dicendosi consapevole che una tecologia così potente sollevi questioni importanti sul suo utilizzo: "Il modo in cui l'intelligenza artificiale viene sviluppata e utilizzata avrà un impatto significativo sulla società per molti anni a venire. - ha scritto - Come azienda leader in AI, sentiamo una profonda responsabilità".

Cattivo maestro. Il software, ribattezzato Norman come Norman Bates, il celebre killer del film di Alfred Hitchcock Psycho (1960), ha studiato le didascalie di una serie di immagini postate da un sottogruppo di Reddit che documenta gli aspetti più macabri legati alla morte: per ovvie ragioni etiche, come precisato sul sito del progetto, il software è stato influenzato con i contenuti delle didascalie soltanto, e nessuna immagine di persona morente o deceduta è stata usata nell'esperimento.

Essere responsabile verso le persone: Si deve dare la possibilità di fornire un feedback, di dare spiegazioni significative e ricorrere contro determinate decisioni. Forse si potrebbe studiare l'implementazione di algoritmi etici, ma resterebbero ancora fuori le emozioni, che costituiscono tutt'ora un mistero difficile da riprodurre in formule.

Share

Pubblicità



© Molisedoc. Tutti i diritti riservati.