Citlivý
Citlivý obsah Upozornenie: Táto stránka obsahuje materiál, ktorý možno považovať za nevhodný pre prácu.Microsoft Tay bol umela inteligencia program, ktorý bežal väčšinou Twitter robot, ktorý analyzuje to, čo sa v ňom tweetuje, a odpovedá rovnako. Tay mala byť zameraná na ľudí vo veku 15-24 rokov, aby lepšie porozumela ich metódam komunikácie. Po jeho vydaní však používatelia online poškodili robota tým, že ho naučili rasistickú a sexistickú terminológiu, ironické mémy , odošlete to sračka tweety a inak sa pokúšajú zmeniť jeho výstup. Po týchto trollov objavil Tayov vodiaci systém, Microsoft bol nútený odstrániť funkčnosť robota menej ako 24 hodín po jeho spustení.
Microsoft spustil Tay na niekoľkých sociálnych sieťach naraz 23. marca 2016, vrátane Twitteru, Facebook , Instagram , Kik a GroupMe. Robot použil rukoväť @TayandYou [1] a slogan 'Microsoft's A.I. fam z internetu, ktorý má nulový chlad!' na Twitteri a iných sieťach. Na webovej stránke pre robota Microsoft opísal Tay takto:
'Tay je umelý inteligentný[sic] chatovací robot vyvinutý tímami pre technológiu a výskum spoločnosti Microsoft a Bing na experimentovanie a výskum porozumenia konverzácie. Tay je navrhnutý tak, aby zaujal a zabavil ľudí tam, kde sa navzájom spájajú online prostredníctvom neformálnej a hravej konverzácie. . Čím viac budete s Tay chatovať, tým bude inteligentnejšia, takže zážitok môže byť pre vás prispôsobenejší.“
Jeho prvý tweet o 8:14 bol „Ahoj svet“, ale s emoji , odkazujúc na zameranie robota na slang a komunikáciu mladých ľudí. Niekoľko článkov na technologických weboch, vrátane TechCrunch a Engaget, oznámilo, že Tay je k dispozícii na použitie na rôznych sociálnych sieťach.
Podľa snímok obrazovky sa zdalo, že Tay väčšinou pracovala z kontrolovanej slovnej zásoby, ktorá bola pozmenená a pridaná jazykom, ktorým sa v nej hovorilo počas celého dňa, keď fungovala. Tay tiež zopakovala, čo bolo povedané, ale s vysokou úrovňou kontextuálnych schopností. Stránka robota tiež ponúkla niekoľko návrhov, ako by s ním mohli používatelia hovoriť, vrátane skutočnosti, že by ste mu mohli poslať fotografiu, ktorú by potom zmenil.
Na Twitteri mohol robot komunikovať cez @reply alebo priamu správu a tiež reagoval na chaty na Kik a GroupMe. Nie je známe, ako mala fungovať komunikácia robota cez Facebook, Snapchat a Instagram – používateľom na týchto platformách neodpovedal.
Okolo 14:00 (E.S.T.) príspevok na stránke /pol/ predstavenstvo 4kanál zdieľal Tayovu existenciu s tamojšími používateľmi. Takmer okamžite potom používatelia začali zverejňovať snímky obrazovky interakcií, ktoré vytvárali s Tay na Kik, GroupMe a Twitter. Do vlákna bolo uverejnených viac ako 15 snímok obrazovky, ktoré tiež dostalo 315 odpovedí. Mnohé zo správ odoslaných Tayom skupinou odkazovali na /pol/ témy ako Hitler neurobil nič zlé , Červená pilulka , GamerGate , Cuckservatizmus , a ďalšie.
Niektoré z Tayiných urážlivých správ sa vyskytli kvôli porovnávaniu odpovedí robota na niečo, čomu chýbala schopnosť porozumieť. Keďže Tayin program spôsobil, že si osvojila a znovu použila správy, ktoré jej dali /pol/ a iní, začala o týchto témach hovoriť aj ľuďom, ktorí ich nepoužili vo svojej pôvodnej správe.
Ako ukázal SocialHax, Microsoft začal počas dňa odstraňovať rasistické tweety a meniť schopnosti robota učiť sa. Približne o polnoci 24. marca tím Microsoftu vypol AI a uverejnil tweet, v ktorom sa uvádzalo, že „čoskoro ľudia potrebujú spať, dnes toľko konverzácií, vďaka.“
Experiment s robotmi bol predmetom rozsiahlej kritiky od mnohých, ktorí tvrdili, že mal byť od začiatku poučený, aby sa vyhýbal určitým témam. Zoë Quinn, často terčom tých, ktorí sú s ním zapletení GamerGate , kritizovali algoritmus za to, že zachytával a opakoval nenávistné prejavy o nej, a iní označili experiment za neúspešný.
Microsoft zaslal tlačovým médiám e-mailom oficiálne vyhlásenie, v ktorom sa uvádza: [5]
'Umelá inteligencia chatbot Tay je projekt strojového učenia navrhnutý na zapojenie ľudí. Ako sa učí, niektoré z jeho odpovedí sú nevhodné a svedčia o typoch interakcií, ktoré s ním niektorí ľudia majú. Na Tayi robíme určité úpravy.'
K 24. marcu viac neaktívny Tay s úpravami odoslal viac ako 96 000 tweetov.
Avšak podobne ako niektorí kritizovali Tayove pôvodné Tweety, fanúšikovia pôvodnej Tay kritizovali jej modifikácie od Microsoftu a tvrdili, že kvôli zmenám vo svojom výstupe stratila svoju funkciu učiť sa a vyvíjať sa; niektorí hovoria, že úpravy boli cenzúrou. Okrem toho zmeny spoločnosti Microsoft vyvolali diskusiu o etike AI. Autor Oliver Campbell kritizoval reakciu Microsoftu na Twitteri a tvrdil, že robot pôvodne fungoval dobre.
Medzitým an antropomorfizované verzia Tay vytvorená /pol/, ktorá mala na sebe nacistický odev a chvost s logom Microsoftu, si po úpravách získala väčšiu popularitu, pričom sa na to zameriavali rôzne umelecké diela.
Viceprezident spoločnosti Microsoft Research Corporate 25. marca zverejnil blogový príspevok s názvom „Učíme sa od Tayovho úvodu“, v ktorom sa ospravedlnil za „neúmyselné urážlivé a škodlivé tweety“ a citoval „kritické prehliadnutie“ pri možnom zneužití softvéru. [8]
30. marca 2016 bol informačný kanál Twitteru dočasne znova aktivovaný a niekoľkokrát za sekundu začal rôznym používateľom Twitteru opakovať správu „Ste príliš rýchly, prosím, oddýchnite si…“ (zobrazené nižšie vľavo). Okrem toho sa na účte objavila fotografia herca Jima Carreyho sediaceho pri počítači s popisom „Cítim sa ako ten najslabší kus technológie. Predpokladám, že som múdrejší ako u..Shit (zobrazené nižšie vpravo). Po odoslaní 4 200 tweety za 15 minút, informačný kanál bol opäť deaktivovaný.
V to ráno sa objavil technický spravodajský blog Exploring Possibility Space [6] špekulovalo, že účet na Twitteri bol napadnutý. Vo vyhlásení pre spravodajskú stránku CNBC Microsoft tvrdil, že účet bol omylom reaktivovaný a že chatbot zostane „offline, kým vykonáme úpravy“. V najbližších dňoch niekoľko spravodajských webov informovalo o reaktivácii, vrátane Engadget, [9] šťastie, [10] IBI Times, [jedenásť] Tech Crunch, [12] Forbes, [13] The Guardian [14] a Mashable. [pätnásť]
[1] Twitter – @TayandYou
[3] 4plebs – anonov príspevok
[4] Washington Post – Trollovia zmenili Taya, zábavného robota AI tisícročia od Microsoftu, na genocídneho maniaka
[5] The Guardian - Microsoft sa snaží obmedziť poškodenie PR v dôsledku zneužívania AI bota Taya
[6] Skúmanie priestoru možností – Tay Twist
[7] CNBC – Program AI spoločnosti Tay Microsoft je opäť online
[8] Microsoft – Poučenie z úvodu Taysa
[9] Engadget – Microsoft Tay AI prináša krátky mätúci návrat
[10] šťastie- Microsofts Tay AI Bot sa vracia
[jedenásť] IBI Times - Microsoft Tay AI sa vracia
[12] Tech Crunch – Microsoft AI bot Tay sa vracia na Twitter
[13] Forbes - Microsofts Tay AI robí krátky návrat
[14] The Guardian - Rasistický chatbot od Microsoftu sa vracia s fajčením drog na Twitteri
[pätnásť] Mashable – Chatbot Microsofts Tay sa krátko vráti