Zakazane mają być takie praktyki jak:
- udostępnianie i wykorzystywanie systemów wykorzystujących "dowolne słabości określonej grupy ze względu na ich wiek, niepełnosprawność ruchową lub zaburzenie psychiczne w celu istotnego zniekształcenia zachowania osoby należącej do tej grupy w sposób, który powoduje lub może powodować u tej osoby lub u innej osoby szkodę fizyczną lub psychiczną",
- udostępnianie i wykorzystanie systemów opartych na technikach podprogowych w celu istotnego zniekształcenia zachowań danej osoby w sposób, który powoduje lub może powodować u niej lub u innej osoby szkodę fizyczną lub psychiczną,
- udostępnianie lub wykorzystanie przez organy publiczne systemów podobnych do chińskiego systemu zaufania społecznego (czyli w praktyce systemu kontroli, który zbiera dane na temat szerokiego spektrum działań obywateli, skanuje twarze i na tej podstawie ocenia "wiarygodność" danej osoby),
- wykorzystanie systemów zdalnej identyfikacji biometrycznej (przykłady danych biometrycznych to układ linii papilarnych, skan twarzy, skan tęczówki) w czasie rzeczywistym w przestrzeni publicznej,
- wykorzystanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów egzekwowania prawa, z wyjątkiem zapobiegania poważnym zagrożeniom oraz poszukiwania ofiar przestępstw lub ich sprawców.
Systemy wysokiego ryzyka, jak wspomina "PI" w swoim raporcie, zostały określone przez planowane regulacje w następujący sposób:
- systemy identyfikacji biometrycznej,
- związane z zarządzaniem i funkcjonowaniem infrastruktury krytycznej,
- związane z edukacją i szkoleniem zawodowym, w tym – rekrutacją do placówek edukacyjnych,
- związane z zatrudnieniem i zarządzaniem zasobami ludzkimi,
- związane z dostępem do usług prywatnych i publicznych, w tym – systemy oceny zdolności kredytowej i zarządzania służbami ratunkowymi,
- związane z egzekwowaniem prawa, w tym – do oceny ryzyka popełnienia przestępstwa przez daną osobę, oceny stanów emocjonalnych, wykrywania deep fake'ów i oceny wartości dowodów w śledztwie,
- systemy przeznaczone do zarządzania migracją, dostępem do azylu i zarządzaniem granicami,
- systemu związane z wymiarem sprawiedliwości, procesami demokratycznymi.
Ustawa zakłada, że odpowiedzialność za działanie systemów wysokiego ryzyka ma ponosić dostawca systemów sztucznej inteligencji. Innymi słowy, to firma będzie musiała dowieść, że jej narzędzia i systemy nie wykorzystują AI do zakazanych praktyk. Co ważne, będzie musiała to zrobić przed wprowadzeniem danego rozwiązania na rynek.
Brak komentarzy:
Prześlij komentarz