Ułatwienia dostępu

Sfinansowano ze środków Funduszu Edukacji Finansowej, którego dysponentem jest Minister Finansów i Gospodarki. Realizatorem Kampanii jest Fundacja Think!

Maszyna też może nas oszukać. Dlaczego ufamy sztucznej inteligencji bardziej niż ludziom?

Coraz częściej ufamy technologiom bardziej niż ludziom – przekazujemy im dane, powierzamy decyzje, oddajemy kontrolę. Wydaje nam się, że sztuczna inteligencja jest obiektywna i pozbawiona intencji, tymczasem za każdym systemem stoją ludzie lub instytucje, które mogą wykorzystać zebrane informacje przeciwko nam. O tym, dlaczego tak łatwo ulegamy złudzeniu „neutralnej maszyny” i jak zachować czujność w erze AI, opowiada dr Konrad Maj, psycholog społeczny i kierownik Centrum Innowacji Społecznych i Technologicznych HumanTech na Uniwersytecie SWPS.

Rozmawiamy z dr Konradem Majem, psychologiem społecznym i kierownikiem Centrum Innowacji Społecznych i Technologicznych HumanTech na Uniwersytecie SWPS.

Czy sztuczna inteligencja i roboty mogą skłonić nas do ujawnienia prywatnych danych?

Tak. Badania, w tym również moje, pokazują, że jesteśmy bardziej skłonni przekazywać informacje sztucznym systemom niż ludziom. Wydaje nam się, że to tylko system, które nie ma względem nas złych intencji. W efekcie dzielimy się informacjami, których nie ujawnilibyśmy człowiekowi. W naszych eksperymentach ludzie chętniej ujawniali maszynom dane, nawet te szczegółowe: adres, numer telefonu czy datę urodzenia. Tymczasem, gdy podobne pytania zadawała im prawdziwa osoba, ostrożność była znacznie większa.

Dlaczego ufamy maszynom bardziej niż ludziom?

Dzieje się tak, bo postrzegamy je jako obiektywne i bezinteresowne. Maszyna nie ma emocji, nie kupuje samochodów ani jachtów, nie potrzebuje wakacji – więc wydaje nam się, że nie ma żadnych intencji. Skoro bez wahania wpisujemy dane do bankomatu czy aplikacji, ten sam odruch przenosimy na inne technologie. Tymczasem to złudzenie – każdy system jest projektowany i zarządzany przez ludzi, a dane mogą być przetwarzane lub sprzedawane dalej.

Czy to oznacza, że jesteśmy gotowi oddać maszynom niemal wszystko?

W wielu przypadkach – tak. W jednym z badań robot po krótkiej rozmowie prosił o dane „dla celów statystycznych”. Mimo że zaznaczał, iż można w każdej chwili przerwać, większość osób kontynuowała i ujawniała kolejne informacje. Granica prywatności przesuwała się z każdym pytaniem. To pokazuje, jak bardzo ulegamy pozornie niewinnym komunikatom i jak łatwo budujemy tzw. mikro-zaufanie do systemów.

Czy takie zachowania mogą mieć realne konsekwencje?

Poważne. Wystarczy profesjonalnie wyglądająca aplikacja, byśmy kliknęli link w SMS-ie i podali dane. Wiele osób nie wie, że część aplikacji przechowuje informacje poza Unią Europejską, np. w USA czy Azji. W praktyce nasze dane krążą po świecie, często bez naszej wiedzy i kontroli.

Czy możemy mówić o nowym rodzaju zagrożenia – emocjonalnym zaufaniu do maszyn?

Tak, to zjawisko ma już swoją nazwę. Określa się je mianem „chemistry machine”. Chodzi o automatyczny odruch zaufania wobec technologii. Codzienny kontakt z bankomatami, chatbotami czy terminalami sprawia, że przestajemy zastanawiać się, kto naprawdę stoi za komunikatem. Uczymy się reagować bezrefleksyjnie.

Czy rozwój AI zwiększy ryzyko manipulacji i podszywania się pod innych?

Zdecydowanie tak. Już teraz sztuczna inteligencja potrafi klonować głos człowieka na podstawie krótkiego nagrania. Wystarczy próbka, by sztuczna inteligencja mogła wygenerować realistyczne wypowiedzi w dowolnym tonie. W Wielkiej Brytanii odnotowano przypadek, gdy oszuści podszyli się pod wiceprezesa firmy, a przedsiębiorstwo niemal straciło duże pieniądze. Wkrótce ktoś może zadzwonić do nas głosem bliskiej osoby i poprosić o „pilny przelew”.

Czyli rozmowa wideo nie daje już gwarancji bezpieczeństwa?

Niestety, już nie. Technologia pozwala dziś nałożyć dowolną twarz na twarz innej osoby w czasie rzeczywistym. Możemy widzieć znajomy obraz, słyszeć znany głos, a mimo to mieć do czynienia z fałszywym przekazem. Weryfikacja wizualna nie daje już stuprocentowej pewności. To poważne wyzwanie – także dla banków, firm i instytucji publicznych, które coraz częściej korzystają z rozwiązań zdalnych.

Czy można się przed tym uchronić?

Najważniejsze to nie tracić czujności i nie ufać bezrefleksyjnie żadnym systemom – nawet tym, które wyglądają znajomo. Warto zwracać uwagę, komu przekazujemy dane i w jakim celu. Sprawdzać, czy aplikacja lub model, z którego korzystamy, ma siedzibę w Europie, czy np. w Chinach lub USA – to ma ogromne znaczenie dla bezpieczeństwa naszych informacji. Musimy też pamiętać, że jako ludzie reagujemy emocjonalnie – na presję, pośpiech, obietnice czy wizje zysku. W takich momentach racjonalny umysł się wyłącza, a to właśnie wtedy najłatwiej nas oszukać.

Konrad Maj – psycholog społeczny i kierownik Centrum Innowacji Społecznych i Technologicznych HumanTech na Uniwersytecie SWPS.

Zobacz także