Rada Unii Europejskiej przyjęła AI Act. To pierwsza na świecie regulacja dotycząca sztucznej inteligencji. Jakie stwarza szanse i jakie rodzi wyzwania?
Podstawowym problemem regulacji w obszarze tak nowatorskim, jakim jest AI, jest przede wszystkim to, że regulacje nie mają szans nadążyć za rozwojem technologii. To jest tak, że technologia w zakresie sztucznej inteligencji rozwija się cały czas. Każdego dnia mamy tak naprawdę nowe technologie, a co za tym idzie – nowe wyzwania, nowe aspekty, które zaczynają być widoczne. Z uwagi na to taka regulacja nie może być regulacją domkniętą. Nie jesteśmy w stanie stworzyć aktu, który będzie enumeratywnie wyliczał, co wolno, a czego nie wolno. Stąd też koncepcja piaskownicy regulacyjnej, czyli rozwiązania, które ma pewne ramy regulacji wyznaczyć, ograniczyć na przykład działania twórców, które mogłyby być szkodliwe dla pacjentów, dla osób fizycznych, dla naszego bezpieczeństwa. Z drugiej strony, nie reguluje tych kwestii w sposób absolutnie zamknięty.
Jaka będzie rola prawnika we wdrażaniu sztucznej inteligencji w przedsiębiorstwach?
Ja myślę, że bez prawników się tutaj nie obędzie. Wdrożenie rozwiązań w zakresie AI jest sensytywne i blisko zahacza o kwestie, takie jak na przykład ochrona danych osobowych, ochrona w przypadku firm z zakresu z branży farmaceutycznej czy medycznej, ochrona poufności dokumentacji medycznej, ochrona praw osób, które których wizerunek czy dane byłyby przetwarzane przez sztuczną inteligencję. Prawnicy będą mieli naprawdę bardzo dużo do zrobienia, żeby zapewnić bezpieczne i zgodne z prawem wdrożenie technologii. Przede wszystkim musimy zadbać o to, żeby osoby, których dane będą przez te technologie przetwarzane, były poinformowane o tym, miały pełną wiedzę, że na przykład rozmawiają z chatbotem, a nie z osobą fizyczną, czy też, że ich dane będą mogły być przetwarzane przez sztuczną inteligencję. Musimy zapewnić też to, że te technologie nie będą prowadziły na przykład do generowania fałszywych wyników, fałszywych informacji.
Zgodność z literą prawa i bezpieczeństwo pacjenta to są te główne wyzwania. Czy coś jeszcze nam się rysuje?
Wyzwań jest o wiele więcej. Przykładowo, jest to ochrona własności intelektualnej. To nie jest tak, że technologia tworzy swoje własne dane, tylko potrzebuje tego, żeby dane jej dostarczać. Pojawia się więc kwestia ochrony praw twórców, których na przykład utwory byłyby przez AI przetwarzane czy wykorzystywane. Mamy kwestie przekazywania informacji na przykład drogą elektroniczną i tego, żebyśmy wiedzieli, czy rozmawiamy z człowiekiem, czy z oprogramowaniem.