Sztuczna inteligencja wzięła nas pod lupę. Oto wyniki…

Naukowcy z University of Maryland, University of Copenhagen, Google Research Johns Hopkins University, University of Massachusetts Amherst i Microsoft Research postanowili zbadać czy istnieje różnica w opisach kobiet i mężczyzn w literaturze. A jeśli tak, to jaka.

Do badań wykorzystano sztuczną inteligencję. Korzystając z nowego modelu komputerowego, naukowcy przeanalizowali zbiór danych obejmujący 3,5 miliona książek, czyli około 11 miliarów słów. Wszystkie publikacje użyte w badaniu zostały wydane w języku angielskim w latach 1900–2008. Kolekcja zawierała mieszankę literatury pięknej i non-fiction.

Badacze wyodrębnili przymiotniki i czasowniki związane z rzeczownikami specyficznymi dla danej płci np. „córka” – „plotkowanie” czy „stewardessa”- „seksowna stewardessa”. Następnie przeanalizowali, czy słowa mają pozytywne, negatywne lub neutralne nastroje, a następnie sklasyfikowali je w kategorie semantyczne, takie jak „zachowanie”, „ciało”, „u(od)czucie” i „umysł”.
Ich analiza pokazuje, że czasowniki negatywne związane z ciałem i wyglądem pojawiają się pięć razy częściej w przypadku postaci kobiecych niż męskich.

Analiza pokazuje również, że pozytywne i neutralne przymiotniki odnoszące się do ciała i wyglądu występują około dwukrotnie częściej w opisach postaci kobiecych, natomiast męskie są najczęściej opisywane przy użyciu przymiotników odnoszących się do ich zachowania i cech osobistych.

Sztuczna inteligencja oceniła również, że przymiotniki opisujące kobiety opisują ich wygląd fizyczny, a słowa przypisywane mężczynom określają raczej ich zachowanie. Dwa przymiotniki najczęściej używane do opisywania kobiet to „piękna” i „seksowna” . Powszechnie używane słowa w opisywaniu mężczyzn to „pracowity”, „racjonalny” i „odważny”.

„Widzimy wyraźnie, że słowa opisujące kobiety odnoszą się w wyższym stopniu do ich wyglądu niż słowa użyte do opisania mężczyzn. W ten sposób byliśmy w stanie potwierdzić powszechne postrzegania i percepcje na temat płci żeńskiej i męskiej, tylko teraz na poziomie statystycznym ” powiedziła profesor Isabelle Augenstein z wydziału informatyki Uniwersytetu Kopenhaskiego.

Profesor Augenstein podkreśla, że ukryte w języku stereotypy są bardzo groźne zwłaszcza w kontekście sztucznej inteligencji, bo to na nich uczą się algorytmy.

„Algorytmy mają za zadanie identyfikowanie wzorców. Jeśli je zaobserwują – uznają je za „słuszne”. Jeśli te wzorce wynikają ze stronniczego języka, to rezultat pracy algorytmu również będzie stronniczy. System przejmuje język, którego my, ludzie używamy, a więc również nasze stereotypy i uprzedzenia dotyczące płci” – mówi profesor Augenstein.

„Jeśli język, którego używamy do opisywania mężczyzn i kobiet, różni się w tak wysokim stopniu, możę to wpłynąć na oferty pracy i otrzymanie pracy jeśli firmy używają systemów informatycznych do sortowania podań o pracę”, dodaje profesor.

Ponieważ sztuczna inteligencja i technologia językowa stają się coraz bardziej widoczne w społeczeństwie, ważne jest, aby zdawać sobie sprawę z języka płci oraz jak różnice językowe wpływają na życie kobiet i mężczyzn.

Naukowcy zwracają uwagę, że powyższa analiza ma swoje ograniczenia, ponieważ nie bierze pod uwagę, kto napisał poszczególne teksty oraz nie analizuje różnic w stopniach stronniczości w zależności od tego, czy książki zostały opublikowane we wcześniejszym czy późniejszym okresie w ramach czasowego zestawu danych.

Tak czy inaczej, my uważamy że warto było się dowiedzieć co o nas „myślą” maszyny

SKOMENTUJ

Dodaj komentarz
Wpisz swoje imię