Watykan, Microsoft i IBM chcą regulacji ws. AI i rozpoznawania twarzy
Przedstawiciele firm Microsoft i IBM podpisali dokument papieża Franciszka w sprawie etycznego rozwoju sztucznej inteligencji. Spółki zobowiązały się promować opracowywanie technologii z poszanowaniem praw człowieka, ze szczególnym wyróżnieniem systemu rozpoznawania twarzy.
Co łączy Microsoft, IBM oraz papieża Franciszka? Niepokój w związku z rozwojem sztucznej inteligencji. W miniony piątek podpisano dokument Rome Call for AI Ethics, zgodnie z nazwą nawołujący do wprowadzenia etycznych regulacji sztucznej inteligencji. Swoje podpisy złożyli m.in. jeden z prezesów Microsoftu Brad Smith, wiceprezes wykonawczy IBM John Kelly oraz – w imieniu papieża, nieobecnego na watykańskiej konferencji z przyczyn zdrowotnych – arcybiskup i prezes Papieskiej Akademii Życia Vincenzo Paglia.
W tekście powstałym dzięki wsparciu obu korporacji Franciszek nawołuje do „etycznego opracowywania algorytmów” albo – w skrócie – „algor-etyki” (w oryg „algor-ethics”). Mają one być tworzone „z myślą o całej ludzkości”, a więc z poszanowaniem praw człowieka i prywatności jednostek. Ponadto zasady działania sztucznej inteligencji powinny być zrozumiałe dla wszystkich, niezawodne i bezstronne. Papież przestrzega też przed zagrożeniami związanymi z rozwojem SI, wśród których największe dotyczy wykorzystywania technologii przez nielicznych uprzywilejowanych kosztem większości. Mówił o tym Vincenzo Paglia zebranym w Watykanie:
To jest asymetria, w ramach której nieliczni wiedzą o nas wszystko, podczas gdy my nie wiemy nic na ich temat. To osłabia krytyczne myślenie i świadome korzystanie z wolności.
Podobne deklaracje wygłosili przedstawiciele Microsoftu i IBM-u, i to nie tylko na konferencji w Watykanie. Jeszcze przed podpisaniem tekstu Rome Call for AI Ethics Satya Nadella, drugi z prezesów giganta z Redmond, apelował o uregulowanie kwestii sztucznej inteligencji, ostatni raz na indyjskiej edycji konferencji Future Decoded (via Hindustan Times) w zeszłym tygodniu, kiedy to mówił o potrzebie zapewnienia, by SI nie było skażone „nieświadomymi uprzedzeniami” (na przykład na tle rasowym lub kulturowym). Być może dlatego w dokumencie podpisanym w piątek szczególną uwagę zwrócono na systemy rozpoznawania twarzy jako przykład potencjalnie ryzykownej technologii. Niewykluczone, że właśnie to było główną przyczyną nawiązania tej nietypowej (co przyznaje sam Brad Smith) współpracy.
Nie jest to pierwszy przejaw obaw związanych z wykorzystaniem sztucznej inteligencji. Od stycznia kwestię tę rozważa Komisja Europejska, aczkolwiek tekst tzw. białej księgi znamy dopiero od dwóch tygodni. W nim również znalazła się wzmianka na temat technologii rozpoznawania twarzy. Podkreślono, że już w świetle obowiązujących przepisów o ochronie danych osobowych (m.in. RODO) zbieranie i wykorzystywanie tego typu informacji jest zakazane, chyba że w wyjątkowych przypadkach. W dokładnym zdefiniowaniu tychże ma pomóc debata na forum publicznym, która potrwa do 19 maja.