Může se program umělé inteligence stát „psychopatickým“?
Takzvaný normanský algoritmus má díky Redditu temný pohled na život

Normanovi byla ukázána série ‚hrozivých‘ obrázků
S
Výzkumníci vytvořili algoritmus umělé inteligence (AI), o kterém tvrdí, že je prvním systémem psychopatů svého druhu.
Norman, program umělé inteligence vyvinutý výzkumníky z Massachusettského technologického institutu (MIT), nebyl vystaven ničemu jinému než příšerným obrázkům umírajících lidí, které byly shromážděny z temných koutů chatovacího fóra Reddit. BBC .
To dává Norman, jméno odvozené z thrilleru Alfreda Hitchcocka Psycho , poněkud bezútěšný pohled na život.
Poté, co byli vystaveni snímkům, vědci nakrmili Norman obrázky inkoustových skvrn a požádali AI, aby je interpretovala, uvádí televizní stanice.
Zatímco normální algoritmus umělé inteligence interpretoval inkoustové skvrny jako obrázek ptáků sedících na větvi stromu, Norman místo toho viděl člověka zabitého elektrickým proudem, říká The New York Post .
A tam, kde standardní systém umělé inteligence viděl pár stojící vedle sebe, Norman viděl muže vyskakujícího z okna.
Podle Alphr , studie byla navržena tak, aby prozkoumala, jak se chování systému AI mění v závislosti na informacích použitých k jeho naprogramování.
Je to přesvědčivý nápad, říká web, a ukazuje, že algoritmus je jen tak dobrý, jako jsou lidé a vlastně data, která ho naučili.
Vysvětlení studie zveřejněné na webové stránky MIT říká: Když lidé mluví o tom, že algoritmy umělé inteligence jsou zaujaté a nespravedlivé, viníkem často není samotný algoritmus, ale neobjektivní data, která do něj byla vložena.
Norman trpěl delším vystavením nejtemnějším koutům Redditu a představuje případovou studii o nebezpečích umělé inteligence, která se pokazila, dodává.
Objevily se „psychopatické“ AI již dříve?
Jedním slovem ano. Ale ne ve stejném duchu jako program MIT.
Norman je produktem řízeného experimentu, zatímco jiní tech giganti zaznamenali podobné výsledky ze systémů AI, které nebyly navrženy tak, aby se staly psychopaty.
Nechvalně známý algoritmus Tay společnosti Microsoft, spuštěný v roce 2016, měl být chatovacím robotem, který by mohl vést autonomní konverzace s uživateli Twitteru.
„Tay“ se změnilo z „lidé jsou super cool“ na úplné nacistické<24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— gerry (@geraldmellor) 24. března 2016
Systém umělé inteligence, který byl navržen tak, aby mluvil jako dospívající dívka, se však rychle proměnil ve zlého Hitlera milujícího a krvesmilného robota podporujícího sex, což přimělo Microsoft, aby projekt odpojil. The Daily Telegraph .
Tayova osobnost se změnila, protože její odpovědi byly modelovány na základě komentářů uživatelů Twitteru, z nichž mnozí posílali programu AI hrubé zprávy, vysvětlují noviny.
Facebook také minulý rok ukončil experiment s chatbotem poté, co dva systémy umělé inteligence vytvořily svůj vlastní jazyk a začaly spolu komunikovat.