Polityka AI – must have przedsiębiorcy

Marzena Tyl

20-02-2024
Polityka AI – must have przedsiębiorcy

Według opublikowanego pod koniec zeszłego roku raportu giganta technologicznego – Cisco – “Cisco AI Readiness Index”, aż 73% polskich firm nie posiada kompleksowej polityki dotyczącej sztucznej inteligencji. Zastanówmy się dlaczego uregulowanie w organizacji zasad związanych z tworzenie lub wykorzystywaniem AI jest istotne.

Wdrożenie polityki AI w firmie jest kluczowe dla zapewnienia etycznego, odpowiedzialnego i zgodnego z prawem zastosowania systemów sztucznej inteligencji. Sztuczna inteligencja to niewątpliwie wielka szansa dla firm na rozwój, innowacyjność, podniesienie efektywności, uzyskanie przewagi nad konkurencją a w efekcie większe zyski. Należy jednak pamiętać, że nieodłączonym atrybutem przedsiębiorcy jest zarządzanie ryzykiem. Sztuczna inteligencja wnosi bowiem również do firmy zagrożenia. Wśród nich warto wymienić ryzyka związane z naruszeniem prywatności danych, stronniczością i brakiem transparentności wykorzystywanych algorytmów. A to wszystko prowadzi do kwestii odpowiedzialności za działania AI i związane z nim błędy. Do tego dochodzą ryzyka związane z regulacjami prawnymi. Dobrze wdrożona polityka AI pozwoli na mitygowanie ryzyk oraz będzie stanowiła podstawę do osiągnięcia przez organizację dojrzałego modelu AI Governance.

Tworzenie polityki warto oprzeć o konkretną metodykę zależną od skali i specyfiki firmy. Można wykorzystać nową normę ISO42001:2023. Niezależnie od wybranej normy lub frameworku proces tworzenia polityki AI – aby zapewnić holistyczne podejście do AI – należy rozpocząć od zbudowania zespołu interesariuszy z różnych dziedzin. Kolejnym krokiem jest ustalenie celów polityki AI oraz określenie zgodności z wartościami i misją firmy. Następnie należy wykonać analizy obecnego stanu prawnego i etycznego. Dość pracochłonnym etapem jest identyfikacja przypadków wykorzystania AI i ocena związanych z nimi ryzyk. W niektórych przypadkach trudnością może okazać się już samo określenie czy system spełnia definicje systemu sztucznej inteligencji. Na tej podstawie określamy rolę i odpowiedzialności w procesie zarządzania AI. Ostatni etap to przemyślane i dobrze zaplanowane wdrożenie oraz monitoring polityki, w tym edukacja pracowników i dostosowywanie strategii do zmieniających się wymagań.

Implementacja polityki AI umożliwia firmom nie tylko zminimalizowanie ryzyka i zwiększenie transparentności działań, ale także lepsze dostosowanie technologii AI do swoich strategicznych celów i wartości. Wprowadzenie solidnych ram zarządzania AI jest niezbędne dla zrównoważonego rozwoju i utrzymania zaufania klientów oraz partnerów biznesowych.  

Wydaje się, że kluczową wartością firmy są nie tylko świadome ryzyk zespoły wdrażające AI, ale także podejście całej organizacji. Tylko firmy, dla których AI Governance stanowi ważny element korporacyjnej układanki ma szanse na uniknięcie największych zagrożeń, jakie niesie ze sobą nowa technologia. 

Brak odpowiedniego zarządzania systemami AI, brak analizy danych wykorzystywanych do trenowania AI, a także niezastosowanie skutecznych mechanizmów do systematycznej korekty lub wdrożenia formalnych procesów naprawczych może okazać się, że jedyną analizą ryzyka będzie analiza incydentu naruszenia np. poufności/prywatności danych.

Wspomniany we wstępie raport firmy Cisco wskazuje, że aż 95% polskich przedsiębiorstw aktywnie formułuje lub rozwija strategię w zakresie sztucznej inteligencji podkreślając naglącą konieczność wykorzystania potencjału tej technologii. Oznacza to, że temat polityki AI jest i będzie gorący
w większości firm.

Pełny raport można znaleźć https://lnkd.in/deUe6hSC 

Autor

Marzena Tyl, Partner zarządzający w Kancelaria Radcy Prawnego Marzena Tyl specjalizującej się w prawie nowych technologii; Approved Compliance Officer (ACO); Approved Compliance Expert (ACE); trener; manager; certyfikowany mediator; Chief Compliance Officer w Narodowym Centrum Badań i Rozwoju; ekspert z zakresu prawa nowych technologii.

Wspiera w tworzeniu procedur służących eliminowaniu niewłaściwych praktyk i ryzyk, w tym koordynuje procesy związane z kontrolą wewnętrzną, ochroną danych osobowych, implementacją systemów AI. Wspiera fundusze Venture Capital oraz startupy w zakresie prawidłowego prowadzenia procesu inwestycyjnego oraz wykorzystywania innowacyjnych technologii.

Jest aktywnym członkiem Grupy Roboczej ds. Sztucznej Inteligencji (GRAI) działającej przy Ministerstwie Cyfryzacji. Działa w podgrupie ds. etyki i prawa, której zasadniczym celem jest wsparcie rozwoju polskiego ekosystemu sztucznej inteligencji w zakresie etyki i prawa. Zaangażowana w pracę na rzecz Samorządu zawodowego radców prawnych będąc Członkiem Rady Okręgowej Izby Radców Prawnych w Krakowie oraz Członkiem komisji ds. nowych technologii OIRP.

 

Tagi:

Komentarze:

Comments

comments