Znalezienie równowagi między regulacją a innowacją jest dużym wyzwaniem – komentarz odnośnie AI Akt

Tomasz Michalak

19-06-2023
Znalezienie równowagi między regulacją a innowacją jest dużym wyzwaniem – komentarz odnośnie AI Akt

14 czerwca 2023 roku odbyło się głosowanie Parlamentu Europejskiego nad aktem, który ma gruntownie uregulować kwestię sztucznej inteligencji w Unii Europejskiej. Akt o sztucznej inteligencji (AI Akt) został przyjęty zdecydowaną większością głosów (499 głosów za, 93 wstrzymujących się oraz 29 przeciw).

W przypadku każdej istotnej zmiany technologicznej pojawia się dylemat: czy lepiej poczekać, aż technologia się rozwinie przed jej regulacją, czy też regulować od samego początku, zanim osiągnie dojrzałość? Wprowadzanie regulacji dopiero w miarę rozwoju technologii umożliwia zwiększenie innowacyjności i elastyczności prowadzonych badań. Pozwala również na pełne wykorzystanie potencjału zawartego w rozwijanej technologii bez niepotrzebnych strat wynikających z pokonywania ograniczeń, co potencjalnie prowadzi do optymalizacji i zwiększenia efektywności podejmowanych działań. W rozwoju technologii pozostaje większa przestrzeń na kreatywność i łatwiej jest osiągnąć postępowe wyniki niż wtedy, gdy możliwości dalszego rozwoju są ściśle uregulowane.

Z drugiej strony, regulowanie rozwoju AI od samego początku, nawet przed osiągnięciem pełnej dojrzałości tej technologii, ma swoje własne zalety. Pozwala z dużą odpowiedzialnością zidentyfikować potencjalne ryzyka związane z AI, jak również podejść do wyzwań natury etycznej w sposób proaktywny. Planowanie prac badawczych na wczesnym etapie rozwoju technologii we współpracy z legislatorami pozwala w bardziej celowy sposób wpłynąć na dostosowanie powstałych rozwiązań do wartości i oczekiwań społeczeństwa. W rezultacie możliwe jest zapewnienie bezpieczeństwa, ochrony prywatności i odpowiedzialnego wykorzystania zasobów, co jest szczególnie istotne dla technologii o znaczącym wpływie na dobrobyt ludzki, a taką technologią jest właśnie AI.

Niestety, znalezienie odpowiedniej równowagi między regulacją a innowacją jest dużym wyzwaniem. Wymaga ciągłego dialogu między decydentami, badaczami, przedsiębiorcami i społeczeństwem. Należy monitorować potencjalne ryzyka i korzyści wynikające z technologii oraz wybrać odpowiedni czas i zakres regulacji. Zatem dyskusje jakie się obecnie toczą w Unii Europejskiej, USA i na całym świecie są jak najbardziej na miejscu. Zważywszy na potencjalne ryzyka i wpływ AI na ludzkość, moim zdaniem, dmuchanie na zimne i regulacje są podejściem w tym przypadku właściwszym. Oczywiście, pytanie jakie regulacje i komu służące.

W kwestii Europejskiego Urzędu ds. Sztucznej Inteligencji i dyskusji, czy uczynić go bardziej “policjantem” czy ciałem doradczym pojawia się kwestia: czy możliwe jest skuteczne regulowanie technologii, np. AI, bez żadnego mechanizmu egzekwowania? Ciekawym przykładem jest wczesna regulacja internetu. W początkowych dniach istnienia internetu, gdy była to technologia stosunkowo nowa, regulacje były bardzo ograniczone, albo w ogóle nie istniały. Chodziło o wspieranie rozwoju, a nie narzucanie surowych mechanizmów egzekwowania. Wraz z powszechnym dostępem do internetu jego wpływ na różne obszary społeczeństwa stał się istotny. Zatem rządy zaczęły wprowadzać bardziej rygorystyczne przepisy i mechanizmy ich egzekwowania, aby rozwiązać najważniejsze problemy: prywatność, prawo własności intelektualnej czy cyberbezpieczeństwo. Myślę, że osoby po 40-stce doskonale pamiętają jak wyglądało przestrzeganie praw własności intelektualnej on-line 20 lat temu. Dlatego nie wierzę w koncepcję „policji AI” teraz. W przyszłości być może tak.

Istnieje wiele przykładów technologii, do których wielu było najpierw nastawionych sceptycznie, ale dzięki regulacjom zyskały zaufanie społeczeństwa. Kiedy pierwsze pojawiły się pierwsze samoloty, wielu uważało pilotów za ryzykantów, a sam pomysł latania za fanaberię. Nie bez powodu ludzie nie mają skrzydeł, prawda? I faktycznie, samoloty w pierwszych latach swojego istnienia nie były oczywiście tak bezpieczne jak obecnie. Poprzez utworzenie organów regulacyjnych, wprowadzenie standardów bezpieczeństwa i dzięki postępowi technologicznemu, lotnictwo stopniowo zdobywało zaufanie społeczeństw. Dziś jest szeroko akceptowanym i regulowanym środkiem transportu. Na chwilę obecną wydaje mi się, że jest to droga, która będziemy musieli przejść z AI. Od wielkich obaw, poprzez regulacje, po oswojenie się i akceptację.

Ale regulacje to także ryzyko, o którym mówiliśmy już wcześniej, tj. potencjalne zduszenie innowacji. Nie wiemy czy badania, które na chwile obecną wydają nam się ryzykowne, nie okażą się przełomowe w trochę albo w zupełnie innym miejscu. Myślę jednak, że możliwe jest wymaganie pewnych podstawowych zasad sprawiedliwości od każdego rodzaju AI, np. zakaz dyskryminacji ze względu na kolor skóry czy wierzenia religijne. Można te wymagania zapisać w postaci prostych aksjomatów. Np. decyzja systemu opartego AI wobec osoby o pochodzeniu azjatyckim powinna być taka sama jak wobec osoby czarnoskórej, jeśli kolor skóry jest jedyną istotną zmienną odróżniającą te dwie osoby.

Oczywiście, istnieją obszary badawcze w AI, którym z zasady powinniśmy się bardziej przyglądać niż innym. Np. AI w ochronie zdrowia wymaga większej uwagi regulacyjnej niż w zastosowaniach przemysłowych do wykrywania ubytków w produktach na taśmie fabrycznej. Innym obszarem wymagającym uwagi jest zastosowania AI w obszarze bezpieczeństwa i prewencji. Co ważne, te obszary już są bardzo mocno regulowane. Teoretycznie moglibyśmy rozciągnąć istniejące już regulacje na technologie AI.

Autor

Tomasz Michalak, lider grupy roboczej AI dla bezpieczeństwa w IDEAS NCBR

 

Tagi:

Komentarze:

Comments

comments