Twój dostęp nie jest aktywny. Skorzystaj z oferty i zapewnij sobie dostęp do wszystkich treści.


Czytaj i słuchaj bez ograniczeń. Zaloguj się lub skorzystaj z naszej oferty

Esej

Czego AI nie wie o naszych emocjach

Nie ma żadnych rzetelnych dowodów na to, że mimika twarzy odsłania prawdę o ludzkich emocjach. Ale wielkie firmy technologiczne chcą wierzyć, że jest inaczej.
rysunki MIKITA RASOLKA
POSŁUCHAJ

Jest rok 1967. Młody amerykański psycholog Paul Ekman, uzbrojony w kolekcję kart z obrazkami i nową teorię przybywa do odległej osady położonej na górzystych wyżynach Papui-Nowej Gwinei. Jakiś czas wcześniej dowiedział się o istnieniu ludu Fore, mieszkającego w izolacji od reszty świata w okręgu Okapa, i pomyślał, że znakomicie nada się do jego badań. Wielu zachodnich naukowców starało się wówczas dotrzeć do rdzennych mieszkańców Papui-Nowej Gwinei. Ekman gromadził zaś dowody służące potwierdzeniu kontrowersyjnej hipotezy o tym, że wszyscy ludzie odczuwają kilka uniwersalnych emocji czy też afektów, które mają charakter naturalny, wrodzony i ponadkulturowy. Wprawdzie po dziś dzień nie znalazła ona jednoznacznego poparcia empirycznego, lecz miała dalekosiężne konsekwencje, gdyż wyrosła z niej nieustannie rozwijająca się branża, warta ponad 17 miliardów dolarów [według szacunków do 2024 roku jej wartość może sięgnąć nawet 56 miliardów dolarów – przyp. za przedrukiem w „Atlanticu”]. Warto więc prześledzić, w jaki sposób rozpoznawanie afektów stało się jednym z zadań systemów sztucznej inteligencji (artificial intelligence, AI) i jakie są najważniejsze związane z tym problemy.

W tropikalnych upałach regionu Okapa Ekman, wspierany przez specjalistę od badań medycznych Daniela Carletona Gajduseka i antropologa E. Richarda Sorensona, pragnął przeprowadzić eksperymenty, aby ustalić, czy przedstawiciele ludu Fore rozpoznają emocje na podstawie mimiki. Ponieważ Fore mieli do tej pory bardzo ograniczone kontakty z ludźmi z Zachodu, podobnie jak dostęp do mediów, Ekman zakładał, że rozpoznawane przez nich podstawowe wyrazy twarzy będzie można uznać za uniwersalne. Stosował proste metody: podsuwał badanym karty z ilustracjami przedstawiającymi różne miny, po czym prosił, by opisali mu prezentowane emocje. Jak sam podsumował: „Tak naprawdę cała moja praca sprowadzała się do pokazywania zabawnych obrazków”.

Ekman nie miał wiedzy na temat historii Fore, ich języka, kultury czy polityki. Próby prowadzenia eksperymentu z pomocą tłumacza nie powiodły się – okazały się zbyt męczące zarówno dla badanych, jak i dla samego Ekmana, który później porównał je do wyrywania zębów. Opuszczał więc Papuę-Nową Gwineę sfrustrowany niepowodzeniem. Kwestia ponadkulturowej ekspresji emocji nie została zbadana. Był to jednak dopiero początek.

Dostęp online
Zapewnij sobie dostęp online do wszystkich tekstów, nagrań audio i wersji na czytniki.Skorzystaj z oferty

Dziś narzędzia służące rozpoznawaniu afektu wykorzystuje się w krajowych systemach bezpieczeństwa, na lotniskach, w edukacji, w start-upach zajmujących się rekrutacją pracowników dla innych firm, w systemach, których oficjalnym celem jest wykrywanie chorób psychicznych, w prowadzonych przez policję programach przewidywania agresywnych zachowań. Jeśli przyjrzymy się dziejom rozpoznawania emocji przez komputery, przekonamy się, że te metody mogą budzić zarówno obawy natury etycznej, jak i wątpliwości naukowców. Teza, że da się trafnie odczytać stan wewnętrzny lub uczucia danej osoby dzięki analizie wyrazu jej twarzy, ma bardzo chwiejne podstawy. Zakrojony na szeroką skalę przegląd dostępnych badań naukowych na ten temat opublikowany w 2019 roku kończy się jednoznaczną konkluzją: nie istnieją żadne wiarygodne dowody, jakoby możliwe było trafne przewidywanie stanu emocjonalnego na podstawie wyrazu twarzy.

Jak to się zatem stało, że kontrowersyjne hipotezy i eksperymenty zaowocowały powstaniem założeń, na których opiera się dziś branża rozpoznawania afektu za pomocą sztucznej inteligencji? Dlaczego pogląd, że istnieje niewielki zestaw uniwersalnych emocji, łatwych do odczytania z wyrazu twarzy każdego człowieka, został tak powszechnie zaakceptowany przez specjalistów od AI pomimo przekonujących dowodów na to, że prawda wygląda zupełnie inaczej? Żeby to zrozumieć, musimy opowiedzieć, w jaki sposób koncepcje te rozwijały się na długo przed tym, nim urządzenia AI stały się częścią infrastruktury naszego codziennego życia.

Ludzkie twarze.

Co budzi emocje big techu

Ekman był jednym z wielu ludzi, którzy przyczynili się do powstania teoretycznych założeń rozpoznawania afektu, lecz bogata i zaskakująca historia jego badań dobrze ilustruje działanie pewnych istotnych złożonych czynników. Jego praca wiąże się bowiem z finansowaniem badań społecznych przez amerykański wywiad w okresie zimnej wojny, z pierwszymi eksperymentami w zakresie rozpoznawania obrazów przez komputery, z programami bezpieczeństwa narodowego prowadzonymi po 11 września 2001 roku (gdy miały miejsce zamachy na World Trade Center i Pentagon), mającymi na celu wykrywanie działalności terrorystycznej, a także z obecną modą na rozpoznawanie emocji za pomocą AI. Mamy tu do czynienia ze znakomitym studium przypadku, obejmującym ideologię, gospodarkę, politykę opartą na strachu oraz pragnienie, by pozyskiwać rozmaite informacje, których ludzie wcale nie zamierzają dobrowolnie udzielać.

Dla armii, korporacji, agencji wywiadowczych i służb policyjnych z całego globu wizja zautomatyzowanego rozpoznawania afektu jest niezwykle atrakcyjna, a także lukratywna. Kusi obietnicą niezawodnego odróżniania przyjaciół od wrogów i prawdy od kłamstwa. Ma umożliwiać zaglądanie do wewnętrznych światów dzięki wykorzystaniu naukowych narzędzi.

Firmy z branży technologicznej zgromadziły nieprawdopodobną liczbę obrazów przedstawiających ludzką mimikę – miliardyselfiez Instagrama, zdjęć portretowych z Pinteresta i Flickra, filmików z TikToka. Pozwoliło im to między innymi na podjęcie próby dotarcia do tak zwanej ukrytej prawdy na temat wewnętrznych stanów emocjonalnych z wykorzystaniem uczenia maszynowego. Rozpoznawanie afektu jest obecnie elementem wielu systemów służących rozpoznawaniu twarzy. Ale podczas gdy systemy te mają pomagać przede wszystkim w identyfikowaniu konkretnych jednostek, celem systemów rozpoznawania afektu jest wykrywanie i klasyfikowanie emocji rysujących się na dowolnie wybranej twarzy. Nawet jeśli cel ten tak naprawdę nigdy nie zostaje osiągnięty, systemy rozpoznawania afektu zyskują dziś ogromne znaczenie, gdyż wpływają na ludzkie zachowania i wpajają nam, że powinniśmy postępować w określony sposób. Już dziś kształtują nasze działania, a także działania instytucji, choć – powtórzmy – nie mają oparcia w porządnych dowodach naukowych.

Zautomatyzowane systemy wykrywania afektu są obecnie powszechnie stosowane choćby przy rekrutowaniu pracowników. Londyński start-up Human wykorzystuje je do analizowania nagrań wideo z rozmów rekrutacyjnych. Według „Financial Timesa” firma „twierdzi, że potrafi wyłapać ekspresję emocji kandydatów i ustalić w ten sposób ich cechy osobowości”. Każdy kandydat zostaje zatem oceniony wedle różnych kryteriów, takich jak szczerość czy gotowość do zaangażowania się w pracę. Z kolei firma rekrutacyjna HireVue, świadcząca usługi klientom …

Chcesz przeczytać do końca? Wykup dostęp online

Zapewnij sobie dostęp do ulubionych tekstów, nagrań audio, a także miesięcznika w wersji na czytniki.

Wykup dostęp online

Fragment pochodzi z książki Kate Crawford Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence, wydanej przez Yale University Press. Pierwotnie został przedrukowany w magazynie „The Atlantic” w kwietniu 2021 roku następnie ukazał się w grudniowym numerze miesięcznika „Pismo. Magazyn Opinii” (12/2021).

-

-

-

  • -
ZAPISZ
USTAW PRĘDKOŚĆ ODTWARZANIA
0,75X
1,00X
1,25X
1,50X
00:00
50:00