Jako lidské bytosti se spoléháme na doporučení nebo varování od našich přátel a rodiny. Poskytuje nám další pohled na to, co očekávat od konkrétní služby, produktu nebo jiné lidské bytosti. Podle nejnovější studie totéž platí pro způsob, jakým věříme a vnímáme chatbota s umělou inteligencí. Výzkumníci z Massachusetts Institute of Technology (MIT) a Arizona State University provedli studii, ve které zjistili, že i když každý člověk ve vzorku 310 lidí interagoval s přesně stejným chatbotem, jejich interakce s ním byly ovlivněny tím, co jim bylo sděleno předtím.
Ovlivňování názorů
„Z této studie
vidíme, že AI je do určité míry AI pozorovatele,“ říká Pat
Pataranutaporn, postgraduální student ve skupině Fluid Interfaces
z MIT Media Lab a spoluautor studie. „Když uživatelům
popisujeme, co je to agent AI, nezmění to jen jejich mentální
model, ale změní to také jejich chování. Jelikož AI reaguje na
uživatele, když člověk změní své chování, změní to i
AI.“
Výzkumníci si vybrali konverzačního chatbota
pro duševní zdraví založeného na velkém jazykovém modelu
OpenAI GPT-3. Před jejich interakcí byli účastníci rozděleni do
tří skupin a každé z těchto skupin bylo falešně řečeno, zda
je chatbot empatický, neutrální nebo necitlivý. Každý
jednotlivec komunikoval s chatbotem asi 30 minut, aby se rozhodl, zda
by ho doporučil příteli.
Zjistili, že účastníci,
kterým bylo řečeno, že AI je empatická, měli tendenci věřit
této představě a také dali chatbotovi vyšší hodnocení než
ti, kteří věřili, že je necitlivá a manipulativní. Zatímco
většina lidí, kterým bylo řečeno, že AI je zákeřná, věřila,
že ano, méně než 50 % těchto lidí se rozhodlo vidět v AI to
dobré a domnívali se, že chatbot není zákeřný.
Spojení člověk-AI
Studie také odhalila zpětnou vazbu mezi tím, jak účastníci vnímají chatbota s umělou inteligencí a reakcemi tohoto agenta. Sentiment konverzací mezi uživateli a AI se postupem času stal pozitivnějším, pokud uživatel věřil, že AI je empatická, zatímco opak byl pravdou pro uživatele, kteří si mysleli, že je hanebná, podle tiskové zprávy.
Výsledky také naznačují, že jelikož mohou mít předpojaté představy tak velký dopad na mysl uživatele, může být jednotlivec zmanipulován tak, aby uvěřil, že model umělé inteligence je schopnější, než ve skutečnosti je.
„Mnoho lidí považuje AI pouze za technický problém, ale úspěch AI je také problémem lidského faktoru. Způsob, jakým mluvíme o AI, dokonce i název, který jí dáváme na prvním místě, může mít obrovský dopad na efektivitu těchto systémů, když je předkládáte lidem. Musíme o těchto otázkách více přemýšlet,“ řekla hlavní autorka Pattie Maes, profesorka mediálních technologií a vedoucí skupiny Fluid Interfaces na MIT.
„AI je černá skříňka, takže máme tendenci si ji spojovat s něčím jiným, čemu rozumíme. Vytváříme analogie a metafory. Jaká je ale ta správná metafora, kterou můžeme použít k uvažování o AI? Odpověď není přímočará,“ dodal Pataranutaporn.
Zdroj obrázků: Pixabay.com