Ustawa o sztucznej inteligencji wchodzi w życie. Nadchodzi przełom

Piotr MalinowskiSkomentuj
Ustawa o sztucznej inteligencji wchodzi w życie. Nadchodzi przełom

Dowiedzieliśmy się właśnie, że ustawa o sztucznej inteligencji właśnie weszła w życie. Tym samym możemy być pewni co do znaczących zmian, które w przeciągu najbliższych miesięcy zostaną wprowadzone przez m.in. twórców modeli językowych czy ogromne korporacje. Głównym celem implementowanych przepisów ma być przede wszystkim dbałość o prywatność oraz bezpieczeństwo gromadzonych lub udostępnianych danych. Do tego wszystkiego dochodzą kwestie związane z prawem autorskim, jak i przejrzystością. Powinno dojść do zakończenia wolnej amerykanki jeśli chodzi o nadal raczkującą technologię. Co to tak naprawdę oznacza dla mieszkańców krajów członkowskich Unii Europejskiej?

Ustawa o sztucznej inteligencji – co należy o niej wiedzieć?

Dynamiczny rozwój AI wciąż trwa i raczej nie zanosi się na szybką zmianę tego stanu rzeczy. Koncerny bezustannie inwestują miliardy dolarów w ulepszanie stosownych narzędzi czy usług udostępnianym przeciętnym konsumentom. W szybkości implementowania nowości pomaga oczywiście brak konkretnych regulacji prawnych wymuszających szczególną ostrożność przy działaniu na sztucznej inteligencji. Wkrótce całość będzie wyglądała zupełnie inaczej – przynajmniej teoretycznie i zapewne tylko na europejskim kontynencie. O o dokładnie chodzi?

Ustawa o sztucznej inteligencji została po raz pierwszy zaproponowana przez Komisję Europejską w kwietniu 2021 roku. Kolejny przełomowy moment nadszedł w 2023 roku, gdy finalną wersję dokumentu uzgodniono pomiędzy przedstawicielami Parlamentu Europejskiego oraz Radę Europejską. Teraz natomiast mamy do czynienia z wejściem przepisów w życie – ich głównym celem jest wspieranie odpowiedzialnego rozwoju i wdrażania sztucznej inteligencji w krajach członkowskich Unii Europejskiej. Prawo odnosi się też przy okazji do potencjalnych zagrożeń dla zdrowia, bezpieczeństwa i praw podstawowych obywateli, a także zapewnia jasne wymogi oraz obowiązki programistom. Dotyczą one konkretnych zastosowań sztucznej inteligencji przy jednoczesnym zmniejszaniu obciążeń administracyjnych/finansowych przedsiębiorstw.

Oczywiście zadbano o jednolite ramy prawne, które opierają się na przyszłościowej definicji AI, a przy okazji stanowią odpowiedź na ewentualne kwestie sporne bądź ewolucyjne. Dlatego też mówimy o stosunkowo otwartych i mogącym się zmieniać dokumencie. Całość podzielono na kilka kategorii w zależności od generowanego ryzyka czy społecznych konsekwencji. Pierwszą z nich jest minimalne ryzyko, gdzie umieszczono filtry antyspamowe oraz gry wideo wykorzystujące generowane elementy. Ich twórcy tak naprawdę nie będą zobligowani do przestrzegania ustawy, choć oczywiście mogą brać pod uwagę konkretne paragrafy oraz zalecenia.

Niektóre usługi będą monitorowane bardziej szczegółowo

Kolejną zakładką są systemy szczególnego ryzyka związanego z przejrzystością. Tutaj wymieniono chociażby chatboty – firmy za nie odpowiedzialne muszą wyraźnie informować użytkowników, że wchodzą w interakcję ze sztucznym narzędziem. Ponadto elementy wygenerowane przez AI powinny posiadać stosowne oznaczenie. Jeśli zaś chodzi o systemy wysokiego ryzyka – mowa przede wszystkim o oprogramowaniu medycznym czy narzędziach wykorzystywanych do przesiewania potencjalnych pracowników w procesie rekrutacyjnym. Niezbędne będzie spełnienie rygorystycznych wymogów w postaci np. wprowadzenia opcji ograniczających ryzyko lub prowadzenia wysokiej jakości zbiorów danych. Ponadto obowiązkiem jest nadzór ze strony człowieka czy przekazywanie jasnych informacji dla konsumentów.

Ostatnia kategoria to podmioty charakteryzujące się niedopuszczalnym ryzykiem. Zebrano systemy umożliwiające rządom lub przedsiębiorstwom prowadzenie oceny społecznej, co rzecz jasna jest zagrożeniem dla praw podstawowych obywateli. Nie ma więc zgodny na implementację żadnych takich rozwiązań. Czego jeszcze się dowiedzieliśmy?

Unia Europejska chce być liderem w dziedzinie bezpiecznej AI

Nie da się ukryć, że Unia Europejska chce stworzyć przejrzysty i spójny ekosystem przynoszący korzyści wszystkim obywatelom. Wprowadzane zmiany mają przynieść ze sobą lepszą opiekę zdrowotną lub usługi publiczne, a także bezpieczniejszy transport. Sztuczna inteligencja zapewni również innowacyjne produkty z dziedziny energii, bezpieczeństwa oraz zdrowia. Przedsiębiorcy mają z kolei ujrzeć wydajniejszą produkcję, natomiast rzędy tańsze i bardziej zrównoważone usługi. Piękna wizja, lecz zapewne jej rezultaty ujrzymy dopiero za kilkadziesiąt lat. Czas pokaże.

Warto też wspomnieć o kodeksie modeli sztucznej inteligencji ogólnego przeznaczenia – przepisy te wejdą w życie za 12 miesięcy. Będą one dotyczyć kluczowych obszarów w postaci przejrzystości, praw autorskich czy zarządzania ryzykiem. Trzeba przyznać, że dzieje się naprawdę sporo. Co o tym sądzicie?

Źródło: Komisja Europejska / Zdjęcie otwierające: unsplash.com (@alexart251)

Udostępnij

Piotr MalinowskiDziennikarz z pasji i wykształcenia. Jest związany z popularnymi serwisami branżowymi, gdzie od siedmiu lat publikuje treści o nowych technologiach, gamingu oraz „ludziach internetu”. Fascynuje go wpływ influencer marketingu na społeczeństwo oraz szeroko pojęte przyczyny i skutki nierówności społecznych. Prywatnie fan powieści/filmów grozy, gier studia Piranha Bytes, podcastów kryminalnych, dobrej kawy oraz rowerowych wycieczek.