Home Newsy YouTube weryfikuje Twój wiek za pomocą AI

YouTube weryfikuje Twój wiek za pomocą AI

YouTube testuje AI do rozpoznawania wieku po twarzy. Jeśli system się pomyli, to Ty musisz udowodnić, że to błąd.

Walka z nieletnimi przeglądającymi treści dla dorosłych trwa od lat, ale dopiero teraz Google zdecydowało się na wdrożenie nowej metody weryfikacji wieku. Nowe rozwiązanie testowane jest na terenie Unii Europejskiej i, co najważniejsze, odpowiedzialność za ewentualny błąd AI zostaje przerzucona na użytkownika.

Nowa funkcja wykorzystuje biometrię twarzy, a analizę przeprowadza firma Yoti. Użytkownicy nie muszą już przesyłać dokumentu tożsamości. Jednak gdy system uzna ich za zbyt młodych, to na nich spoczywa obowiązek złożenia odwołania. Google deklaruje zgodność procesu z przepisami GDPR. Pytanie tylko, czy całość przebiega wystarczająco transparentnie.

Użytkownik, który chce obejrzeć film oznaczony jako 18+, zobaczy komunikat z prośbą o potwierdzenie wieku. Ma do wyboru dwa sposoby: przesłanie dokumentu tożsamości lub wykonanie zdjęcia twarzy. AI analizuje to zdjęcie, a Google wykorzystuje do tego technologię firmy Yoti, która potrafi oszacować wiek z dokładnością do 1,5 roku w 99% przypadków.

System nie identyfikuje osoby i nie zapisuje zdjęcia. Zamiast tego tworzy tymczasowy zestaw cech biometrycznych i na jego podstawie ocenia wiek. Google przekonuje, że taki model zapewnia większą prywatność niż przesyłanie dowodu.

Wtedy pojawiają się problemy. Choć Google określa technologię jako opcjonalną, to może stać się ona domyślnym sposobem weryfikacji. Gdy AI uzna, że użytkownik jest niepełnoletni, blokuje dostęp do treści. Aby go odblokować, trzeba przesłać dokument i potwierdzić wiek.

Eksperci ds. prywatności ostrzegają, że brakuje jasnych zasad odwołania się od decyzji algorytmu. Jeśli AI się pomyli, użytkownik nie zawsze wie, co powinien zrobić dalej. Google nie udostępnia statystyk błędów, choć zapewnia, że skuteczność systemu jest bardzo wysoka.

Z punktu widzenia rodziców i regulatorów nowe podejście może zwiększyć bezpieczeństwo. Trzeba jednak pamiętać, że systemy AI nie są wolne od uprzedzeń. Badania, m.in. z MIT Media Lab, wskazują, że algorytmy częściej mylą się w przypadku kobiet i osób o ciemniejszym kolorze skóry.

Yoti twierdzi, że ich model ogranicza ryzyko dyskryminacji. Jednak część ekspertów wciąż podkreśla, że sztuczna inteligencja może nieświadomie ograniczać równość dostępu do cyfrowych treści.

Materiał powstał we współpracy z AI:

Pusto w komentarzach, może zaczniesz?

KOMENTARZE DO ARTYKUŁU:

Please enter your comment!
Please enter your name here

Exit mobile version