NEMITZ: Reguła korzystania ze wspólnej przestrzeni w sieci

Potrzebujemy reguły jasno pokazującej, że wiadomości, które otrzymujemy w dyskusji lub na forum, pochodzą od człowieka lub od maszyny

25 kwietnia 2019

Wojciech Przybylski: Sztuczna inteligencja wpływa na przejrzystość wyborów i dyskursu politycznego, bowiem działa na świadomość wyborców w kampanii wyborczej. To duże zagrożenie. Jak się przed nim bronić?

Paul Nemitz: Im więcej technologii, które przejmują funkcje związane z demokratycznym dyskursem i wyborami, tym bardziej potrzebujemy przejrzystości tej technologii.

Nie możemy dopuścić do sytuacji, w której ludzie rano otwierają Facebooka lub Twittera i myślą: „Rany, te wszystkie wiadomości od tak wielu ludzi są na korzyść jednego kandydata, musi więc coś w tym być”, a tak naprawdę to wszystko jest wytworem maszyn. Niebezpieczeństwo polega na tym, że nie wiemy, kiedy mamy do czynienia z człowiekiem, a kiedy nie.

Potrzebujemy więc reguły jasno pokazującej, że wiadomości, które otrzymujemy w dyskusji lub na forum, pochodzą od człowieka lub od maszyny.

Czy można stworzyć prawo określające, czy maszyna jest obsługiwana przez człowieka lub maszynę? To zadanie dość trudne i na pewno organy ścigania potrzebowałyby specjalnych narzędzi…

Istnieją prawa trudne do wyegzekwowania, ale nadal są bardzo przydatne, ponieważ określają, co jest dobre, a co złe. Zanim zadamy sobie pytanie, jak ustalić, czy banknot jest fałszywy, musimy najpierw  zadać pytanie, czy chcemy prawa przeciw fałszerstwu, czy nie.

Myślę, że powinniśmy postępować w ten sam sposób w odniesieniu do sztucznej inteligencji.

Jeśli zgodzimy się, że chcemy wiedzieć, czy rozmawiamy z maszyną, czy z człowiekiem, powinniśmy mieć to prawo i równolegle do tego powinniśmy myśleć o technologiach kontroli.

Istnieją sposoby, aby kontrolować tę działalność do pewnego stopnia, a także środki mogące zobowiązywać duże firmy internetowe do upewnienia się, że w ich sieci panuje przejrzystość.

Jednak żadne prawo nie jest doskonale egzekwowane i uważam, że nie powinniśmy wymagać tej niemożliwości w odniesieniu do sztucznej inteligencji.

W procesie rozróżniania człowieka od bota newralgiczna wydaje się więc technologia.

Jestem pewien, że istnieją już technologie pozwalające dowiedzieć się, które teksty są produkowane przez bota.

Paul Nemitz – członek Komisji ds. Etyki Danych rządu niemieckiego i Globalnej Rady ds. Sztucznej Inteligencji, wizytujący profesor prawa, College of Europe.

 

Partner publikacji

 

Czytaj całe wydanie
Res Publica Nowa: Suwerenność informacyjnaSPIS TREŚCI

Wojciech  Przybylski

Wojciech Przybylski prowadzi największy w Europie Środkowej program foresightu strategicznego na temat polityk europejskich. Jest redaktorem Visegrad Insight w Fundacji Res Publica w Warszawie. W przeszłości redaktor naczelny Res Publiki Nowej, a następnie EUROZINE - paneuropejskiej sieci magazynów kultury. Wykłada gościnnie dla Foreign Service Institute for U.S. Government, Central European University Democracy Institute, Katolickim Uniwersytet Pázmánya w Budapeszcie. Absolwent MISH UW, Europe’s Future Fellow w IWM - Instytucie o Człowieku w Wiedniu. Członek rady doradczej LSE IDEAS Ratiu Forum, Europejskiego Forum Nowych Idei i Międzynarodowego Forum Strategii Schmidt Futures i Stowarzyszenia Inkubator Umowy Społecznej. Publikował m.in. w Foreign Policy, Politico Europe, Journal of Democracy, Project Syndicate, EUObserver, VoxEurop, Hospodarske noviny, Internazionale, Zeit, Dzienniku Gazecie Prawnej, Gazecie Wyborczej. Pojawia się także w BBC, Al Jazeera Europe, Euronews, TRT World, TVN24, TOK FM, Szwedzkim Radiu i innych. Publikacje książkowe pod jego redakcją: Understanding Central Europe, Routledge (2017) oraz On the Edge. Poland, Culturescapes (2019).

Dajemy do myślenia

Analizy i publicystyka od ludzi dla ludzi. Wesprzyj niezależne polskie media.