Sztuczna inteligencja potrafi przewidywać przekonania polityczne na podstawie twarzy

Naukowcy wykazali, że technologia rozpoznawania twarzy może przewidzieć orientację polityczną danej osoby z zaskakującą dokładnością. Ich badania, opublikowane w czasopiśmie American Psychologist, pokazują, że nawet neutralny wyraz twarzy może zawierać wskazówki dotyczące czyichś przekonań politycznych. Odkrycie to stwarza poważne obawy dotyczące prywatności, zwłaszcza że rozpoznawanie twarzy może działać bez zgody danej osoby.

Technologia rozpoznawania twarzy to forma sztucznej inteligencji, która identyfikuje i weryfikuje osoby na podstawie analizy wzorców na podstawie cech ich twarzy. Zasadniczo technologia wykorzystuje algorytmy do wykrywania twarzy na obrazach lub materiałach wideo, a następnie mierzy różne aspekty twarzy, takie jak odległość między oczami, kształt linii szczęki i kontur kości policzkowych.

Pomiary te są przekształcane we wzór matematyczny lub podpis twarzy. Podpis ten można porównać z bazą danych znanych twarzy, aby znaleźć dopasowanie, lub wykorzystać go w różnych aplikacjach, od systemów bezpieczeństwa i odblokowywania urządzeń mobilnych po oznaczanie znajomych na platformach mediów społecznościowych.

Wraz z rosnącym wykorzystaniem technologii rozpoznawania twarzy zarówno w sektorze publicznym, jak i prywatnym, istnieje coraz większe prawdopodobieństwo, że narzędzia te będą mogły zostać wykorzystane do celów wykraczających poza prostą identyfikację, takich jak przewidywanie cech osobistych, takich jak orientacja polityczna.

„Dorastanie za żelazną kurtyną uświadomiło mi ryzyko inwigilacji i to, że elity decydują się na przeoczenie niewygodnych faktów ze względów finansowych lub ideologicznych” – wyjaśnił główny autor Michał Kosiński, profesor nadzwyczajny ds. zachowań organizacyjnych w Graduate School of Business na Uniwersytecie Stanforda .

„Dlatego w mojej pracy skupiam się na audytowaniu nowych technologii i ujawnianiu związanych z nimi zagrożeń dla prywatności. W przeszłości wykazaliśmy, że dane sprzedawane przez Facebooka (lub wymieniane na treści) ujawniały poglądy polityczne, orientację seksualną, osobowość i inne cechy intymne użytkowników. Pokazaliśmy niepokojący potencjał podejścia ukierunkowanego na osobowość stosowanego przez Facebooka, Cambridge Analytica i inne.

„Ujawniliśmy, jak Facebook użył sztuczki, aby w dalszym ciągu sprzedawać intymne dane swoich użytkowników. Pokazaliśmy, że technologie rozpoznawania twarzy, szeroko stosowane przez firmy i rządy, mogą wykryć poglądy polityczne i orientację seksualną na podstawie zdjęć profilowych w mediach społecznościowych”.

Jednak poprzednie badania często nie uwzględniały zmiennych, które mogłyby mieć wpływ na trafność wniosków, takich jak wyraz twarzy, orientacja głowy oraz obecność makijażu i biżuterii. W swoim nowym badaniu badacze starali się wyizolować wpływ samych rysów twarzy na przewidywanie orientacji politycznej, zapewniając w ten sposób jaśniejszy obraz możliwości i zagrożeń związanych z technologią rozpoznawania twarzy.

Aby to osiągnąć, zrekrutowali 591 uczestników z dużego prywatnego uniwersytetu i dokładnie kontrolowali środowisko i warunki, w jakich fotografowano twarz każdego uczestnika. Uczestnicy byli ubrani jednolicie, w czarne T-shirty, używali chusteczek do twarzy w celu usunięcia makijażu, a włosy mieli starannie związane z tyłu. Siedzieli w ustalonej pozycji, a ich twarze sfotografowano w dobrze oświetlonym pomieszczeniu na neutralnym tle, aby zapewnić spójność wszystkich zdjęć.

Po wykonaniu zdjęć poddano je obróbce przy użyciu algorytmu rozpoznawania twarzy, w szczególności VGGFace2 w architekturze ResNet-50-256D. Algorytm ten wyodrębniał z obrazów wektory numeryczne — zwane deskryptorami twarzy. Deskryptory te kodują rysy twarzy w formie, którą mogą analizować komputery, i zostały wykorzystane do przewidywania orientacji politycznej uczestników za pomocą modelu, który odwzorowywał te deskryptory na skalę orientacji politycznej.

Naukowcy odkryli, że algorytm rozpoznawania twarzy może przewidzieć orientację polityczną przy współczynniku korelacji wynoszącym 0,22. Ta korelacja, choć skromna, była istotna statystycznie i sugerowała, że pewne stabilne cechy twarzy można powiązać z orientacją polityczną, niezależnie od innych czynników demograficznych, takich jak wiek, płeć i pochodzenie etniczne.

Następnie Kosiński i jego współpracownicy przeprowadzili drugie badanie, w którym zastąpili algorytm 1026 osobami oceniającymi, aby ocenić, czy ludzie w podobny sposób potrafią przewidzieć orientację polityczną na podstawie neutralnych wizerunków twarzy. Osoby oceniające zostały zrekrutowane za pośrednictwem narzędzia Mechanical Turk firmy Amazon i zaprezentowano im standaryzowane wizerunki twarzy zebrane w pierwszym badaniu. Każdy oceniający został poproszony o ocenę orientacji politycznej osób na zdjęciach.

Oceniający przeprowadzili ponad 5000 ocen, a wyniki przeanalizowano w celu określenia korelacji między postrzeganymi przez nich ocenami orientacji politycznej a faktycznymi orientacjami zgłaszanymi przez uczestników. Podobnie jak algorytm, osoby oceniające były w stanie przewidzieć orientację polityczną ze współczynnikiem korelacji wynoszącym 0,21, co było porównywalne z wydajnością algorytmu.

„Wiedzieliśmy, że zarówno ludzie, jak i algorytmy potrafią ocenić cechy intymne, od osobowości po orientację seksualną i poglądy polityczne na podstawie zdjęć profilowych w mediach społecznościowych. Duża część sygnału prawdopodobnie pochodzi z autoprezentacji, wyrazu twarzy, orientacji głowy i innych wyborów dokonanych przez osobę na zdjęciu” – Kosinski powiedział PsyPost.

„Byłem zaskoczony, że zarówno algorytmy, jak i ludzie potrafią przewidzieć orientację polityczną również na podstawie starannie ustandaryzowanych obrazów twarzy bez wyrazu. Sugeruje to istnienie powiązań między stabilnymi rysami twarzy a orientacją polityczną”.

W trzecim badaniu naukowcy rozszerzyli badanie zdolności predykcyjnej rozpoznawania twarzy na inny kontekst, stosując model do zestawu naturalistycznych obrazów – portretów polityków. Celem badania było sprawdzenie wyników uzyskanych w kontrolowanych warunkach laboratoryjnych w bardziej realistycznym scenariuszu, w którym obrazy nie były standaryzowane. Próba składała się z 3401 zdjęć profilowych polityków z niższych i wyższych izb organów ustawodawczych z trzech krajów: Stanów Zjednoczonych, Wielkiej Brytanii i Kanady.

Wyniki pokazały, że model rozpoznawania twarzy rzeczywiście może przewidzieć orientację polityczną na podstawie naturalistycznych wizerunków polityków z medianą dokładności współczynnika korelacji wynoszącej 0,13. Ten poziom dokładności, chociaż nie był wysoki, był jednak znaczący i wskazywał, że niektóre stabilne cechy twarzy, które pozwalają przewidywać orientację polityczną na kontrolowanych obrazach laboratoryjnych, można również zidentyfikować na bardziej zróżnicowanych, rzeczywistych obrazach.

Odkrycia mają niepokojące konsekwencje dla prywatności.

„Chociaż wiele innych śladów cyfrowych ujawnia orientację polityczną i inne cechy intymne, rozpoznawanie twarzy może być stosowane bez zgody i wiedzy osób badanych” – wyjaśnił Kosinski. „Zdjęcia twarzy mogą być łatwo (i potajemnie) pobierane przez organy ścigania lub uzyskiwane z archiwów cyfrowych lub tradycyjnych, w tym z sieci społecznościowych, platform randkowych, witryn do udostępniania zdjęć i rządowych baz danych.

„Często są łatwo dostępne; Na przykład zdjęcia profilowe na Facebooku i LinkedIn są dostępne dla każdego bez zgody i wiedzy danej osoby. Dlatego zagrożenia prywatności stwarzane przez technologię rozpoznawania twarzy są pod wieloma względami bezprecedensowe”.

„Wszystkie te ustalenia są niewygodne. Ze względów ideologicznych naukowcy wolą unikać dyskusji na temat powiązań między wyglądem a cechami” – dodał Kosiński. Jednak „firmy i rządy chętnie wykorzystują rozpoznawanie twarzy do identyfikowania cech intymnych”.

Jak w przypadku każdego badania, badanie to ma ograniczenia, które należy wziąć pod uwagę. Różnorodność uczestników była ograniczona, przy czym znaczna większość stanowili przedstawiciele rasy kaukaskiej, a wszyscy pochodzili z jednego prywatnego uniwersytetu, który mógł nie zapewniać szerokiej reprezentacji globalnej, a nawet krajowej demografii. Chociaż w badaniu uwzględniono wiele zmiennych, nie można całkowicie wykluczyć wpływu nieodłącznych uprzedzeń w ludzkiej percepcji lub konstrukcji algorytmu.

Przyszłe badania mogłyby rozszerzyć te ustalenia, włączając bardziej zróżnicowaną pulę uczestników i stosując bardziej zaawansowane technologie obrazowania, takie jak trójwymiarowe skany twarzy. Ponadto zbadanie tych przewidywań w różnych kulturach i systemach politycznych może zapewnić głębszy wgląd w uniwersalność ustaleń.

„Powinniśmy zachować ostrożność przy interpretacji wyników pojedynczego badania” – zauważył Kosiński. „Chociaż nasze ustalenia są zgodne z wcześniejszymi pracami, wyniki należy traktować jako wstępne, dopóki nie zostaną powtórzone przez niezależnych badaczy”.

Niemniej jednak badanie rodzi ważne pytania dotyczące potencjalnych zastosowań i nadużyć technologii rozpoznawania twarzy.

„Mam nadzieję, że nasze odkrycia posłużą do kształtowania polityki i regulacji technologii rozpoznawania twarzy” – powiedział Kosiński. „Nasze poprzednie artykuły często kończyły się zaostrzeniem przepisów i dostosowywaniem przez firmy technologiczne zasad ochrony prywatności. Mam również nadzieję, że te badania pomogą nam lepiej zrozumieć powiązania między wyglądem a cechami psychologicznymi”.

Autorami badania „Technologia rozpoznawania twarzy i osoby oceniające potrafią przewidzieć orientację polityczną na podstawie obrazów twarzy bez wyrazu, nawet przy uwzględnieniu danych demograficznych i autoprezentacji” są Michał Kosiński, Poruz Khambatta i Yilun Wang
 

oryginał tekstu znajduje się:
Artificial intelligence can predict political beliefs from expressionless faces
by Eric W. Dolan
April 17, 2024

źródło: Psypost