sztuczna inteligencja

Ostatni etap prac nad projektem AI Act

Pierwszy tego typu projekt ustawy o sztucznej inteligencji został przedstawiony przez Komisję Europejską 21 kwietnia tego roku, a 11 maja projekt mandatu negocjacyjnego został przyjęty przez Komisję Rynku Wewnętrznego i Komisję Wolności Obywatelskich (84 głosów za, 7 przeciw, 12 osób wstrzymało się od głosu). Nowy projekt zawierał poprawki mające na celu zapewnienie, że systemy sztucznej inteligencji będą nadzorowane przez ludzi, a przy tym bezpieczne, przejrzyste, niedyskryminujące oraz przyjazne dla środowiska. Istotnym pojęciem w tym projekcie jest również jednolitość, która ma zapewnić neutralność technologiczną i elastyczność ustawy w stosowaniu do obecnych i przyszłych technologii.  

14 czerwca Parlament Europejski spotkał się, aby przyjąć stanowisko negocjacyjne w celu zainicjowania ostatecznej formy projektu AI Act. Zdecydowana większość posłów poparła przedstawiony dokument. Posłowie rozszerzyli także listę systemów sztucznej inteligencji o niedopuszczalnym poziomie ryzyka dla bezpieczeństwa ludzi, zakazując korzystania z: 

  • Systemów zdalnej identyfikacji biometrycznej „w czasie rzeczywistym” i „po” w przestrzeni publicznej 
  • Systemów kategoryzacji biometrycznej wykorzystujących cechy wrażliwe, takie jak rasa, płeć, religia itp.
  • Systemów rozpoznawania emocji w egzekwowaniu prawa 
  • Predykcyjnych systemów policyjnych opartych na profilowaniu lub zachowaniu przestępczym w przeszłości 
  • Nieukierunkowanego pobierania obrazów twarzy z Internetu lub nagrań CCTV w celu tworzenia baz danych rozpoznawania twarzy 

Ponadto, posłowie dodali do listy wysokiego ryzyka systemy sztucznej inteligencji wykorzystywane do wpływania na wyborców i wyniki wyborów.  Przy tych wszystkich regulacjach zachowano jednak pewną elastyczność umożliwiającą rozwój małych i średnich przedsiębiorstw. Akt zawiera także pewne wyjątki, do których należą działania badawcze i komponenty AI dostarczane na licencjach typu open source.  

Kolejne rozmowy trójstronne odbyły się 18 lipca, podczas których politycy mieli debatować nad kontrowersyjnymi fragmentami ustawy, dotyczącymi głównie środków innowacyjnych i tzw. piaskownic regulacyjnych 

Piaskownice regulacyjne to przestrzeń, w której organizacje mogą eksperymentować z nowymi narzędziami sztucznej inteligencji – wszystko odbywa się pod kontrolą odpowiedniej instytucji, która czerpie z tego korzyść gromadząc najnowsze informacje o danej technologii. Celem piaskownic jest wzmacnianie potencjału innowacyjnego. 

Dyskusje odnoszące się do tego punktu nie dotyczyły samego jego istnienia, co jego obowiązkowości. Parlament Europejski chcąc ułatwić dostęp do najnowszych technik organizacjom z mniejszych państw UE ustanowił go obligatoryjnym, przy czym Rada UE sugeruje utrzymanie jego dobrowolności. 

Z tym przepisem wiążę się również kwestia domniemania zgodności autorom narzędzi AI opuszczającym piaskownicę. Stanowiska Parlamentu i prezydencji hiszpańskiej reprezentującej państwa członkowskie są odmienne. Celem Parlamentu jest zapewnienie twórcom owej zgodności, natomiast Prezydencja obawia się utraty kontroli nad tym procesem przez organy nadzorcze, a także jego negatywnego oddziaływania na konkurencję.  

Do kluczowych tematów omawianych w kontekście ustawy o sztucznej inteligencji należą także generatywne modele AI. Skonfigurowanie wyszukiwarki Microsoft z modelem OpenAI czy oczekiwany Bard firmy Google wymusił podjęcie odpowiednich kroków regulujących ich użycie w celu zadbania o bezpieczeństwo naszych danych.  

Nie należy zapominać o znaczeniu nowej ustawy, ponieważ utoruje ona drogę przyszłym globalnym przepisom dotyczącym sztucznej inteligencji. Jak powiedział Brando Benifei, włoski prawodawca zaangażowany w wysiłki Parlamentu Europejskiego,   

„Europa wyszła naprzód i zaproponowała konkretną odpowiedź na zagrożenia, jakie zaczyna stwarzać sztuczna inteligencja. Chcemy wykorzystać pozytywny potencjał sztucznej inteligencji w zakresie kreatywności i produktywności, ale będziemy również walczyć o ochronę naszej pozycji i przeciwdziałać zagrożeniom dla naszych demokracji i wolności”. 

Czy uważasz, że ten akt prawny rzeczywiście ustanowi globalny punkt odniesienia dla regulacji dotyczących sztucznej inteligencji? Czy być może Twoim zdaniem, jest zbyt kontrolujący i ograniczający?

Powinniśmy mówić o tym więcej: Niewyobrażalna moc komputerów kwantowych. Liliana Kotval

Europejscy naukowcy spędzili ponad 100 lat na rozwijaniu dziedziny mechaniki kwantowej, zagłębiając się we właściwości wszystkich atomów i cząstek, co pozwala na niezwykle szybkie rozwiązywanie nawet najbardziej złożonych problemów. Komputery kwantowe używają kubitów, które wykonują obliczenia matematycznie w zupełnie odmienny sposób niż standardowe – zamiast używać wartości 0 i 1, przyjmują wiele wartości jednocześnie, zgodnie ze standardowym językiem algebry liniowej. W ubiegłym roku IBM skonstruował największy komputer kwantowy z 433 kubitami, wyprzedzając 54-kubitowy procesor Sycamore firmy Google. W 2019 roku procesor Google – Sycamore zakończył obliczenia w 200 sekund, co zajęłoby najmocniejszemu superkomputerowi na świecie 10 000 lat. Wystarczy sobie wyobrazić jak potężne może być 100 milionów lub nawet 10 miliardów kubitów.  

Pomimo szybkich postępów w informatyce kwantowej, ostatnie dane szacunkowe japońskiej firmy technologicznej Fujitsu wskazują, że aby rozdzielić liczbę złożoną z 2048 bitów lub RSA-2048, komputer kwantowy potrzebowałby około 10 000 kubitów, 2,23 biliona bramek kwantowych i głębokości obwodu kwantowego wynoszącej 1,8 biliona. W styczniu 2023 roku firma przeprowadziła testy przy użyciu 39-kubitowego komputera kwantowego, aby sprawdzić jak trudne byłoby dla niego przełamanie istniejącej kryptografii. Przewidziała, że pomyślne złamanie klucza RSA zajęłoby około 104 dni. Inni badacze oszacowali, że wymagałoby to co najmniej miliona lub nawet 20 milionów kubitów. Obecnie nie ma pewności co do tego, kiedy komputery kwantowe będą zdolne do złamania RSA i zostaną wyposażone w wystarczającą do złamania obecnego szyfrowania liczbę kubitów. Jednakże może się to zmienić w niedalekiej przyszłości.  

Osiągnięcie pełnej funkcjonalności przez komputery kwantowe może oznaczać, że ataki szyfrujące dane będą w stanie zagrozić nawet najbardziej bezpiecznym, według dzisiejszych standardów, danym. Będą w stanie złamać szyfrowanie używane przez większość przedsiębiorstw, jednostek gospodarki czy administracji. Uczyni to dzisiejsze metody i urządzenia szyfrujące całkowicie bezużytecznymi w przyszłości, co wywoła międzynarodowy chaos, jeśli nie zostaną one zmodernizowane tak, aby były ‘’kwantowo bezpieczne’’, na przykład poprzez aktualizacje lub zwykłą wymianę.  

Nie oznacza to jednak, że dzisiejsze dane są nadal poza zasięgiem obliczeń kwantowych – zostały one zebrane przez tajne służby niektórych rządów, by w chwili, gdy obliczenia kwantowe staną się dostępne, odczytać je wykorzystując metodę odszyfrowywania retrospektywnego. Brak wdrożonych odpowiednich środków bezpieczeństwa stwarza obecnie możliwość gromadzenia skradzionych, cennych informacji. Kryptografia post-kwantowa musi więc powstać z dużym wyprzedzeniem, aby nie tylko poradzić sobie z przyszłymi zagrożeniami związanymi z odszyfrowywaniem danych, ale także z tymi, które dzieją się już teraz tuż pod naszym nosem. 

Z drugiej strony, nie można zapomnieć o wielu korzyściach wynikających z zastosowania obliczeń kwantowych, chociażby w medycynie badania nad lekami oraz innymi substancjami chemicznymi będą krótsze i dokładniejsze, co pozwoli na wcześniejsze diagnozowanie chorób oraz opracowanie leków ratujących życie. Podobnie w ekologii; dzięki ograniczeniu emisji dwutlenku węgla i metanu oraz opracowaniu taniego wodoru jako alternatywy dla paliw kopalnych, walka ze zmianami klimatycznymi będzie możliwa. Wykorzystanie tej technologii pomoże rozwikłać mnóstwo obecnie nierozwiązywalnych problemów. Jak wszystko, posiada ona zarówno wady, jak i zalety. Ogromne znaczenie w przyszłości będzie miało to, w jaki sposób przygotujemy się na jej nadejście oraz jak będziemy wykorzystywać jej niewyobrażalną moc.