Blog:Idealizowanie ludzi i demonizowanie AI

Z MruczekWiki

Idealizowanie ludzi i demonizowanie AI
22 marca 2026 | Kenex


Poniżej znajdują się trudne emocjonalnie treści

Zawartość: Przemoc (w tym seksualna), okrutna śmierć

Jeśli potrzebujesz pomocy, przydatne informacje (np. telefony wsparcia) znajdziesz tutaj. W pilnych sprawach możesz zadzwonić na pogotowie - 112 lub 999

Ponad milion Polaków bezkrytycznie wierzy w propagandę Telewizji Republika, ludzie notorycznie mówią nieprawdę, a wiele relacji z innymi okazuje się toksyczne i bardzo kosztowne emocjonalnie. Jednak na postawie tego nie proponuje się zakazu telewizji i spotkań międzyludzkich. Dlaczego generatywne AI za mniejsze przewinienia obrywa nawoływaniem o zakaz? To zjawisko jest ostatnio przedmiotem badań i fachowo nazywa się awersją do algorytmu (ang. algorithm aversion)[1]. Wobec algorytmu stosujemy znacznie surowsze standardy niż wobec ludzi, a dziełu algorytmu ufamy mniej niż ludzkiemu. Co nie znaczy, że uprzedzeni się mylą.

Niebezpieczni ludzie

AI nie jest w pełni bezpieczne. Ale ludzie też nie.

  • Wypalenie zawodowe najczęściej dotyka ludzi, których praca wymaga intensywnych kontaktów z ludźmi, a kontakty te są warunkiem sukcesu i rozwoju zawodowego, np. nauczycieli, policjantów, lekarzy, pielęgniarek, pracowników społecznych[2].
  • Pelicot we Francji podawał swojej żonie silne leki nasenne, a następnie pozwalał obcym mężcyznom za pieniądze uprawiać seks z niczego nieświadomą żoną. Akty seksualne były nagrywane przez męża oraz przechowywane na komputerze. Oskarżonych o gwałt na Pelicot zostało ponad 70 mężczyzn[3].
  • Kaznodzieja w Kenii kazał wyznawcom umrzeć z głodu, aby spotkać Jezusa. Służby znalazły kilkadziesiąt ciał ofiar sekty, w tym dzieci[4].
  • W 1994 w Rwandzie doszło do ludobójstwa osób pochodzenia Tutsi dokonanego przez ekstremistów Hutu. Zginęło ponad milion ludzi. Za eksplozję przemocy odpowiadała m.in. kampania nienawiści przygotowana przez ekstermistów oraz rozpowszechniania przez tradycyjne media[5].

Ryzyka związane z kontaktem międzyludzkim zwykle nie powodują nawoływań, by całkowicie porzucić relacje międzyludzkie. Ludzi, którzy postanawiają się wycofać, przeważnie diagnozujemy jako zaburzonych psychicznie i za pomocą presji społecznej próbujemy zmusić, by "wyszli do ludzi".

W mediach pojawiają się reportaże o użytkownikach, którym AI pogorszyło psychozę, zachęciło do samobójstwa lub w inny sposób im zaszkodziło. Bardzo dobrze, że o tym rozmawiamy, ale pamiętajmy o historiach, w których to człowiek człowiekowi zgotował podobny los. Zachowajmy uczciwość intelektualną podczas porównań.

Strach przed konkurencją nasila uprzedzenia

Gdy AI będzie stawało się coraz lepsze, uprzedzenia wobec sztucznej inteligencji tylko wzrosną. Skąd to wiem? Moją pewność mogą wyjaśnić uprzedzenia młodych Polek do osób z Ukrainy.

Obecnie uprzedzenia do Ukraińców w Polsce są powszechne, ale zaraz po wybuchu wojny zdecydowanie dominowało współczucie oraz chęć pomocy. Dlatego liberalne media były zaskoczone, gdy okazało się, że w 2023 najbardziej uprzedzoną grupą do uchodźców z Ukrainy są młode Polki - zazwyczaj charakreryzujące się lewicowymi poglądami i niską ksenofobią.

Okazało się, że chodzi o rynek matrymonialny. Z Ukrainy przybywały do Polski głównie kobiety, więc były postrzegane jako konkurencja w walce o polskich mężczyzn. Wzrost uprzedzeń najsilniejszy był tam, gdzie singielkom było trudno znaleźć partnera[6].

AI to konkurent absolutny. Może zabrać pracę, przyjaciół, partnera romantycznego. Im lepszy, tym groźniejszy. Trudno dziwić się uprzedzeniom.

W przeszłości postrzegano AI jako zagrożenie głównie dla klasy ludowej, wykonującej pracę fizyczną oraz nisko kwalifikowaną. Klasa ludowa ma słaby wpływ na debatę publiczną, więc ich obawy nie były traktowane zbyt poważnie. Można podsumować je memem "Oh no! Anyway" - może i smutne, ale niech się przekwalifikują, bo postęp nadchodzi i nas wyręczy.

Wraz z premierą ChatGPT klasa średnia zdała sobie sprawę, że to ona jest najbardziej zagrożona. AI przygotuje pismo, napisze kod programu i wygeneruje rysunek. Za to nie posprząta ulic, nie zasieje zboża i nie naprawi rur w zlewie. Dlatego to już nie "Oh no! Anyway".

Uprzedzenia nie muszą być złe

Czy uprzedzenia wobec algorytmów powinniśmy postawić na równi z ksenofobią i potępiać jako zło i hipokryzję? W żadnym razie!

Przeciwnym zjawiskiem do uprzedzenia wobec algorytmu jest faworyzowanie algorytmu (ang. algorithm appreciation) - wiara, że decyzja algorytmu jest prawdziwie obiektywna, w przeciwieństwie do zawodnych ludzi. Do jego powstania mogła przyczynić się popkultura, która przez dekady budowała sztuczną inteligencją jako twór chłodny, ale do bólu rzetelny i obiektywny.

Gdy znana mi osoba poszła do lekarza, nie mogła doprosić się o receptę. Lekarka upierała się, że lek nie wymaga recepty, bo... tak jej napisał ChatGPT. Już lepiej, by lekarz był nadmiernie podejrzliwy wobec AI niż obwalał taką akcję.

Generatywne AI to narzędzie, a nie osoba. Uprzedzenia wobec AI nie są równie szkodliwe jak uprzedzenia do grup ludzi. Warto nagłaśniać sytuacje, gdy popularne narzędzie wprowadza w błąd i krzywdzi ludzi.

Potraktujmy modele językowe podobnie jak Homo Sapiens pod względem jego tendencji do zmyślania. Dodawanie kleju do pizzy to zły pomysł niezależnie do tego, czy proponuje nam to Google Gemini, influencer z Instagrama, czy szurnięty znajomy.

Zobacz też

MiauBlog:

MruczekWiki:

Przypisy