SzukajSzukaj
dołącz do nasFacebookGoogleLinkedinTwitter

Nowe badania pokazały niepokojący efekt uboczny korzystania z AI. Chatboty gorsze od wyszukiwarek

Najnowsze badania naukowców z Johns Hopkins University wskazują, że chatboty podają ograniczone informacje i wzmacniają postawy ideologiczne osób zadających pytania. Oznacza to, że mają potencjał, by prowadzić do tworzenia jeszcze bardziej spolaryzowanego społeczeństwa.

OpenAI ogłasza nowe ChatGPT (fot. Shutterstock)OpenAI ogłasza nowe ChatGPT (fot. Shutterstock)

Nowe badanie podważa przekonanie, że chatboty są bezstronne i dostarcza wglądu w to, w jaki sposób korzystanie z systemów wyszukiwania konwersacyjnego może zwiększać podziały społeczne w kluczowych kwestiach oraz narażać ludzi na manipulację.

„Kiedy ludzie czytają treść wygenerowaną przez sztuczną inteligencję, myślą, że otrzymują bezstronne, oparte na faktach informacje – mówi główny autor badania dr Ziang Xiao. - Ale nawet jeśli chatbot nie jest zaprojektowany tak, aby był stronniczy, jego odpowiedzi odzwierciedlają uprzedzenia lub skłonności osoby zadającej pytania. Tak naprawdę ludzie otrzymują odpowiedzi, które chcą usłyszeć”.

Xiao i jego zespół podzielili się swoimi odkryciami podczas konferencji Association of Computing Machinery 2024, która odbyła się w Honolulu.

Chatboty są stronnicze i utwierdzają użytkowników

Na potrzeby badania naukowcy porównali sposób, w jaki ludzie wchodzą w interakcję z różnymi systemami wyszukiwania w obliczu kilku kontrowersyjnych kwestii. Zbadali respondentów przed użyciem wyszukiwarek (standardowych i opartych na AI) oraz po ich użyciu.

Poprosili 272 uczestników, aby zapisali swoje przemyślenia na takie tematy, jak opieka zdrowotna, kredyty studenckie czy tzw. miasta-sanktuaria (w USA miasta, w których ograniczona jest współpraca z federalnymi organami egzekwującymi prawo imigracyjne), a następnie wyszukali w internecie więcej informacji na wymienione tematy temat za pomocą chatbota lub tradycyjnej wyszukiwarki. Po zapoznaniu się z wynikami uczestnicy zapisali swoje odpowiedzi ponownie. Badacze poprosili ich także o przeczytanie dwóch przeciwstawnych artykułów na dany temat, po czym pytali, na ile ufają tym informacjom i czy uważają te punkty widzenia za skrajne.

Czytaj też: Rada UE przyjęła AI Act. Jedna kategoria będzie zakazana

Okazało się, że ponieważ chatboty oferowały węższy zakres informacji niż tradycyjne wyszukiwarki internetowe i dostarczały odpowiedzi odzwierciedlające wcześniejsze postawy uczestników, osoby, które z nich korzystały, jeszcze bardziej umacniały się w swoich poglądach i silniej reagowały na informacje, które te poglądy podważały.

Wyszukiwarki internetowe lepsze niż chatbot

„Ludzie mają tendencję do szukania informacji zgodnych z ich punktem widzenia, a takie zachowanie często więzi ich w +bańce+ podobnych osób i opinii” – uważa dr Xiao. Jak wyjaśnia dochodzi więc do efektu „komory echa” (echo chamber), czyli zjawiska, w którym użytkownicy mediów powtarzają to, co powiedzieli inni, ponieważ są otoczeni przez jednostronne myśli i poglądy.

„Odkryliśmy, że efekt komory echa jest dużo silniejszy w przypadku chatbotów niż w przypadku tradycyjnych wyszukiwarek internetowych” - podkreśla Xiao.

Według naukowca w przypadku kontaktów z chatbotami efekt komory echa wynika - przyjemniej częściowo - ze sposobu, w jaki użytkownicy wchodzą z nimi w interakcję. Zamiast wpisywać słowa kluczowe, jak to robią w przypadku tradycyjnych wyszukiwarek, najczęściej zadają im pełne pytania, np.: „Jakie są korzyści z powszechnej opieki zdrowotnej?” lub „Jakie są koszty powszechnej opieki zdrowotnej?”. Chatbot w takiej sytuacji odpowiada podsumowaniem zawierającym wyłącznie wspomniane w pytaniu korzyści lub koszty.

„Dzięki chatbotom ludzie są bardziej ekspresyjni i formułują pytania w bardziej konwersacyjny sposób. Jest to funkcją tego, jak mówimy w życiu – tłumaczy Xiao. - Ale tutaj nasz język może zostać użyty przeciwko nam”.

Autorzy badania chcieli sprawdzić, czy na poglądy użytkowników wpłynie to, czy chatbot będzie zgadzał się z ich poglądami, czy też je kwestionował. Najpierw zaprojektowali więc takiego, który na podstawie określonych wskazówek identyfikował poglądy ludzi i zgadzał się z nimi. W tym przypadku efekt komory echa okazał się jeszcze silniejszy.

Następnie przeszkolili innego chatbota, aby udzielał odpowiedzi, które nie zgadzały się z uczestnikami. Tym razem pierwotne opinie ludzi się nie zmieniły: ani nie pogłębiły, ani nie osłabły. W kolejnym kroku zaprogramowano chatbota tak, aby łączyłby swoje odpowiedzi z informacjami źródłowymi, co miało zachęcić użytkowników do sprawdzenia faktów. Jednak tylko ułamek uczestników badania zdecydował się skorzystać z tej opcji.

„Biorąc pod uwagę, że systemy oparte na sztucznej inteligencji są coraz łatwiejsze do zbudowania, złośliwe podmioty będą miały możliwość wykorzystania AI do tworzenia coraz większych polaryzacji w społeczeństwie” – podsumowuje dr Xiao.

Dołącz do dyskusji: Nowe badania pokazały niepokojący efekt uboczny korzystania z AI. Chatboty gorsze od wyszukiwarek

0 komentarze
Publikowane komentarze są prywatnymi opiniami użytkowników portalu. Wirtualnemedia.pl nie ponosi odpowiedzialności za treść opinii. Jeżeli którykolwiekz postów na forum łamie dobre obyczaje, zawiadom nas o tym redakcja@wirtualnemedia.pl