Szukaj na tym blogu

wtorek, 25 października 2022

AI Act. Co zawiera projekt ustawy?

 Zakazane mają być takie praktyki jak:

  • udostępnianie i wykorzystywanie systemów wykorzystujących "dowolne słabości określonej grupy ze względu na ich wiek, niepełnosprawność ruchową lub zaburzenie psychiczne w celu istotnego zniekształcenia zachowania osoby należącej do tej grupy w sposób, który powoduje lub może powodować u tej osoby lub u innej osoby szkodę fizyczną lub psychiczną",
  • udostępnianie i wykorzystanie systemów opartych na technikach podprogowych w celu istotnego zniekształcenia zachowań danej osoby w sposób, który powoduje lub może powodować u niej lub u innej osoby szkodę fizyczną lub psychiczną,
  • udostępnianie lub wykorzystanie przez organy publiczne systemów podobnych do chińskiego systemu zaufania społecznego (czyli w praktyce systemu kontroli, który zbiera dane na temat szerokiego spektrum działań obywateli, skanuje twarze i na tej podstawie ocenia "wiarygodność" danej osoby),
  • wykorzystanie systemów zdalnej identyfikacji biometrycznej (przykłady danych biometrycznych to układ linii papilarnych, skan twarzy, skan tęczówki) w czasie rzeczywistym w przestrzeni publicznej,
  • wykorzystanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów egzekwowania prawa, z wyjątkiem zapobiegania poważnym zagrożeniom oraz poszukiwania ofiar przestępstw lub ich sprawców.

Systemy wysokiego ryzyka, jak wspomina "PI" w swoim raporcie, zostały określone przez planowane regulacje w następujący sposób:

  • systemy identyfikacji biometrycznej,
  • związane z zarządzaniem i funkcjonowaniem infrastruktury krytycznej,
  • związane z edukacją i szkoleniem zawodowym, w tym – rekrutacją do placówek edukacyjnych,
  • związane z zatrudnieniem i zarządzaniem zasobami ludzkimi,
  • związane z dostępem do usług prywatnych i publicznych, w tym – systemy oceny zdolności kredytowej i zarządzania służbami ratunkowymi,
  • związane z egzekwowaniem prawa, w tym – do oceny ryzyka popełnienia przestępstwa przez daną osobę, oceny stanów emocjonalnych, wykrywania deep fake'ów i oceny wartości dowodów w śledztwie,
  • systemy przeznaczone do zarządzania migracją, dostępem do azylu i zarządzaniem granicami,
  • systemu związane z wymiarem sprawiedliwości, procesami demokratycznymi.

Ustawa zakłada, że odpowiedzialność za działanie systemów wysokiego ryzyka ma ponosić dostawca systemów sztucznej inteligencji. Innymi słowy, to firma będzie musiała dowieść, że jej narzędzia i systemy nie wykorzystują AI do zakazanych praktyk. Co ważne, będzie musiała to zrobić przed wprowadzeniem danego rozwiązania na rynek. 

Brak komentarzy: