Kan ett AI-program bli 'psykopatiskt'?
Den så kallade normandiska algoritmen har en mörk syn på livet tack vare Reddit

Norman visades en serie 'grymma' bilder
MED
Forskare har skapat en artificiell intelligens (AI) algoritm som de hävdar är det första psykopatsystemet i sitt slag.
Norman, ett AI-program utvecklat av forskare från Massachusetts Institute of Technology (MIT), har inte utsatts för något annat än grymma bilder på människor som dör som samlats in från de mörka hörnen av chattforumet Reddit, enligt BBC .
Detta ger Norman, ett namn som kommer från Alfred Hitchcocks thriller Psykopat , en något dyster syn på livet.
Efter att ha exponerats för bilderna matade forskare Norman bilder av bläckfläckar och bad AI att tolka dem, rapporterar sändaren.
Där en normal AI-algoritm tolkade bläckfläckarna som en bild av fåglar som satt uppe på en trädgren, såg Norman istället en man bli elektricerad, säger New York Post .
Och där ett standard AI-system såg ett par stå bredvid varandra, såg Norman en man hoppa ut genom ett fönster.
Enligt Alphr , var studien utformad för att undersöka hur ett AI-systems beteende förändras beroende på informationen som används för att programmera det.
Det är en övertygande idé, säger webbplatsen, och visar att en algoritm bara är så bra som människorna, och faktiskt data, som har lärt ut den.
En förklaring av studien publicerad på MIT hemsida säger: När folk pratar om att AI-algoritmer är partiska och orättvisa, är boven ofta inte själva algoritmen, utan den partiska data som matades till den.
Norman led av långvarig exponering för de mörkaste hörnen av Reddit, och representerar en fallstudie om farorna med att artificiell intelligens har gått fel, tilläggs det.
Har 'psykopatiska' AI dykt upp tidigare?
Med ett ord, ja. Men inte i samma veva som MIT:s program.
Norman är produkten av ett kontrollerat experiment, medan andra teknikjättar har sett liknande resultat från AI-system som inte var designade för att bli psykopater.
Microsofts ökända Tay-algoritm, som lanserades 2016, var tänkt att vara en chattrobot som kunde genomföra autonoma konversationer med Twitter-användare.
'Tay' gick från 'människor är supercoola' till fullnazistiska in<24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— Gerry (@geraldmellor) 24 mars 2016
Men AI-systemet, som designades för att prata som en tonårsflicka, förvandlades snabbt till en ond Hitlerälskande och incestuell sexfrämjande robot, vilket fick Microsoft att dra ur kontakten med projektet, säger Daily Telegraph .
Tays personlighet hade förändrats eftersom dess svar var modellerade på kommentarer från Twitter-användare, av vilka många skickade grova meddelanden till AI-programmet, förklarar tidningen.
Facebook stängde också ner ett chatbot-experiment förra året, efter att två AI-system skapat sitt eget språk och börjat kommunicera med varandra.