Czy sztuczna inteligencja dyskryminuje osoby niepełnosprawne?

Sztuczna inteligencja (AI) przewraca świat do góry nogami, wpływając na różne aspekty naszego życia, od opieki zdrowotnej po transport. Ale jak wpływa na życie osób niepełnosprawnych? Czy AI jest narzędziem promującym równość, czy raczej powoduje dalsze nierówności i dyskryminację?

Pytanie jest na tyle ważne, że European Disability Forum postanowiło się z nim zmierzyć. EDF to organizacja parasolowa zrzeszająca organizacje krajowe i lobbująca w sprawie spraw osób niepełnosprawnych w Komisji Europejskiej i innych organach władzy Unii Europejskiej. Na początku października EDF zorganizowało warsztaty poświęcone tematowi sztucznej inteligencji i włączeniu w pracy i edukacji. Wskazali kilka poważnych zagrożeń, które streszczam na podstawie sprawozdania z tych warsztatów

Technologia odgrywa coraz większą rolę w naszej codzienności, a AI jest na czele tej rewolucji. Humberto Insolera, członek Komitetu Wykonawczego Europejskiego Forum Osób Niepełnosprawnych (EDF), podkreślił tę kwestię podczas konferencji na temat AI, edukacji włączającej i zatrudnienia.

AI nie posiada moralnego kompasu jak człowiek, dlatego tak ważny jest nadzór ludzi, aby zapobiec niepożądanym działaniom AI - powiedział Insolera.

Insolera omówił zaangażowanie EDF w AI, podkreślając potencjał AI do poprawy życia osób niepełnosprawnych i promowania większej niezależności.

Jednak AI, podobnie jak każda technologia, ma swoje wady. Największą z nich jest fakt, że AI uczy się na podstawie historycznych danych. To oznacza, że jeśli w przeszłości istniały nierówności lub dyskryminacja, AI może je nieświadomie powielać.

Kave Noori, Oficer Polityki AI w EDF, wyjaśnił, że tradycyjne programy komputerowe działają na podstawie predefiniowanych reguł, podczas gdy AI uczy się wykonywać określone działania poprzez wzorce i korelacje statystyczne.

Ważne jest, aby szkolić AI za pomocą różnych danych, aby uniknąć dyskryminujących wyników - powiedział Noori.

AI ma ogromny potencjał w edukacji, z możliwością tworzenia interaktywnych materiałów do nauki, wykorzystania oprogramowania do rozpoznawania mowy i indywidualnych asystentów nauczania. Noori sugeruje, że AI może dostarczyć rozwiązań dla osób o różnych stylach i zdolnościach uczenia się.

Jednak jak podkreślił Noori, ważne jest ostrożne wdrażanie i testowanie, aby upewnić się, że systemy są optymalnie zaprojektowane i nie ograniczają praw człowieka ani nie dyskryminują mniejszości.

Maud Stiernet, niezależna badaczka i ekspertka ds. AI, dostępności i praw dzieci, prezentowała perspektywy, jak wykorzystać AI jako narzędzie do personalizowanej i indywidualnej nauki.

Z jej badań wynika, że uczniowie proszą chatbota o pomoc w zadaniach domowych, nawet jeśli wiedzą, że chatbot czasami może podać im błędną odpowiedź.

Jutta Treviranus, Dyrektor i Profesor w Centrum Badań nad Inkluzją w Ontario College of Art and Design (OCAD) University w Toronto, podkreśliła znaczenie różnorodności w miejscu pracy dla rozwiązywania problemów i innowacji.

Treviranus wskazała, że 90% firm w Stanach Zjednoczonych korzysta z jakiegoś rodzaju narzędzi do rekrutacji z wykorzystaniem AI, co prowadzi do wykluczenia osób niepełnosprawnych.

Eduard Fosch-Villaronga, Profesor i Dyrektor Badań w eLaw - Centrum Prawa i Technologii Cyfrowych na Uniwersytecie w Lejdzie, podkreślił konieczność uwzględnienia różnorodności i integracji na różnych etapach rozwoju AI.

Fosch-Villaronga omówił wyzwania związane z korzystaniem z systemów AI do rozpoznawania emocji u osób o różnych cechach fizycznych, fizjologicznych i psychicznych.

Zastosowanie AI może przyczynić się do wykluczenia, wzmacniać stereotypy, rodzić prawne i etyczne obawy, a także prowadzić do utraty talentów i innowacji - powiedział Fosch-Villaronga.

AI ma potencjał do poprawy życia osób niepełnosprawnych, ale tylko wtedy, gdy jest odpowiednio zrozumiana, szkolona i nadzorowana.

Sztuczna inteligencja i jej rozwój jest dla mnie nieustannym źródłem fascynacji. Jednak ja również dostrzegam ryzyka związane z bezrefleksyjnym korzystaniem z jej możliwości. Dlatego cieszę się, że EDF zajęło się także tym problemem. Bezstronność algorytmów, w tym sztucznej inteligencji, jest iluzoryczna. W końcu karmimy je ludzkimi przesądami, niechęciami, wrogością, a nie jedynie wiekopomnymi osiągnięciami.