12 lipca 2024 roku AI Act został opublikowany. Będzie wchodził w życie w kilku fazach już od 1 sierpnia.
Myślę, że jesteście bombardowani tą informacją na różnego rodzaju mediach społecznościowych. Mnie ta informacja zastała podczas urlopu, gdzie nadrabiam lekturę nie tylko zawodową 😉. To dobra perspektywa do zrozumienia po co nam ta regulacja.
Z końcem czerwca amerykańska firma badawcza Gartner opublikowała raport „How Your CEO Is Thinking About AI”, który podsumowuje coroczne badanie „Gartner CEO and Senior Business Executive Survey”, w którym zbadano, jak liderzy reagują na bardzo widoczny rozwój sztucznej inteligencji, w szczególności GenAI.
Zgodnie z wynikami przeprowadzonego badania sztuczna inteligencja (AI) jest obecnie głównym tematem po transformacji cyfrowej, wyraźnie dominując nad innymi obszarami. Aż 34% dyrektorów generalnych wskazało AI jako priorytet, podczas gdy wydajność i zwinność operacyjna zajęły drugie miejsce zaledwie z 9% głosów.
Chociaż zainteresowanie sztuczną inteligencją wśród dyrektorów generalnych nie jest zaskakujące, to zakres tego zainteresowania jest niezwykły, co prawdopodobnie odzwierciedla jej przełomowy charakter. W latach 2023–2024 odsetek dyrektorów generalnych uznających AI za technologię o największym wpływie na ich branże wzrósł niemal trzykrotnie.
Autorzy badania zauważają, że mimo sceptycyzmu, wynikającego z wcześniejszych doświadczeń z koncepcjami takimi jak blockchain i metaverse, aż 64% dyrektorów generalnych uważa, że przełomowe odkrycia w dziedzinie sztucznej inteligencji dokonane w 2023 roku uzasadniają rosnące zainteresowanie i inwestycje w tę technologię.
Osiemdziesiąt sześć procent CEO uważa, że w tym i następnym roku AI może pomóc w utrzymaniu lub zwiększeniu przychodów firmy.
Według badania, połowa dyrektorów generalnych polega na swoich CIO, CTO lub CDO, którzy mają aktywnie definiować zmiany i przewodzić im, wprowadzając znaczącą wartość strategiczną wynikającą z GenAI. Jednak 13% CEO zdecydowało się do poprowadzenia projektu wejścia w GenAI. Jeśli chodzi o role nietechniczne, mniejszy odsetek CEO opiera się na dyrektorach finansowych (8%), dyrektorach operacyjnych (7%) i CSO (5%), aby strategicznie kierować wysiłkami GenAI.
I tu pojawia się ciekawa informacja:
8️⃣7️⃣% dyrektorów generalnych zgadza się, że korzyści ze sztucznej inteligencji dla ich firmy przewyższają ryzyko.
Jak powstało to przekonanie⁉️ Czy faktycznie firmy przeprowadzają analizę ryzyka uwzględniającą aspekty biznesowe, ale także prawne i etyczne? W omawianym badaniu nie zostało to w żaden sposób zaznaczone, nie pojawiają się działy prawne, compliance i cyberbezpieczeństwa jako istotne czynniki zapewniające bezpieczne wejście w AI .
I tu mogę płynnie przejść do artykułu Richarda Summerfileda w ostatnim wydaniu Risk & Compliance Magazin. Autor zwraca w swej publikacji uwagę, że w celu ochrony przed ryzykiem, firmy muszą opracować odpowiedzialne ramy sztucznej inteligencji, aby zapewnić, że systemy są opracowywane zgodnie z prawem i etycznie, aby służyć dobrym jednostkom i społeczeństwu. Sztuczna inteligencja oferuje wiele korzyści, takich jak zwiększona wydajność, dokładność i innowacyjność, jednak wiąże się również z ryzykiem związanym z prywatnością, bezpieczeństwem cybernetycznym, etyką i zgodnością. Ryzyko to zwiększa się, gdy organizacje korzystają z narzędzi sztucznej inteligencji stron trzecich lub integrują je z własnymi systemami.
Summerfield podkreśla, że przed nawiązaniem współpracy z dostawcą usług AI, firmy powinny przeprowadzić szczegółową analizę due diligence, aby ocenić praktyki dostawcy, certyfikaty zgodności i stabilność finansową.
Wracając do dzisiejszego wydarzenia. Choć zapewne AI Act nie jest doskonały to stanowi niewątpliwie ważny i potrzebny element umożliwiający zachowanie balansu pomiędzy rozwojem technologii i biznesu a prawami jednostki i społeczeństwa. Mam nadzieje, że będzie pewnego rodzaju przewodnikiem przeprowadzającym firmy przez pułapki nowej wspaniałej technologii.
Na koniec kilka kluczowych dat, które warto znać:
1 sierpnia 2024 (już za kilka dni!): Wchodzi w życie unijne rozporządzenie o sztucznej inteligencji (AI Act).
2 lutego 2025: Wchodzi w życie lista zabronionych zastosowań: scoring społecznościowy, manipulacja, wykorzystywanie luk, ocena ryzyka/przewidywanie przestępstw, tworzenie baz danych rozpoznawania twarzy ze źródeł publicznych/CCTV, analiza biometryczna w czasie rzeczywistym.
2 maja 2025 r.: Opracowanie przez Urząd ds. AI (AI Office) kodeksu praktyk (Code of practices) dla dostawców modeli AI ogólnego przeznaczenia (GPAI).
2 sierpnia 2025: Dostawcy GPAI muszą przestrzegać zapisów rozporządzenia. Będzie to wymagać utworzenia struktury zarządzania obejmującej zainteresowane strony na szczeblu krajowym i unijnym.
2 lutego 2026 r.: Komisja musi przedstawić wytyczne określające praktyczne wdrożenie rozporządzenia oraz obszerną listę praktycznych przykładów użycia systemów AI, które są obarczone i nie są obarczone wysokim ryzykiem.
2 sierpnia 2026 r.: Rozporządzenie wchodzi w życie w pełni! Termin, w którym infrastruktura związana z zarządzaniem i systemem oceny zgodności powinna zacząć działać.
2 sierpnia 2027 r.: Termin dotyczy niektórych systemów AI wysokiego ryzyka. Aby zapoznać się z kryteriami, zob. art. 6 ust. 1, głównie w przypadku, gdy są one przeznaczone do stosowania jako element bezpieczeństwa produktu lub jeśli istnieje wymóg oceny zgodności przez stronę trzecią. Produkty objęte przepisami sektorowymi Unii to np.: maszyny, dźwigi, urządzenia ciśnieniowe, wyroby medyczne, zabawki.
Zapraszam do zapoznania się z materiałami źródłowymi:
Firmy wdrażające systemy sztucznej inteligencji (zwane w rozporządzeniu „wdrożeniowcami”) powinny pamiętać o trzech kluczowych obowiązkach:
- Wdrożenie systemu oceny ryzyka
- Przyjęcie zasady i procesy przejrzystości
- Zaprojektowanie odpowiedzialnego AI Governance
W tym temacie, ale i innych związanych z AI zapraszam do kontaktu z naszą Kancelarią!