Sztuczna inteligencja miała nam oszczędzić czasu. Coraz częściej oszczędza nam też kontakt z innymi ludźmi. W materiałach TVN24+ pokazano, jak łatwo algorytmy wchodzą w ludzkie role.
Aplikacje z udziałem sztucznej inteligencji flirtują, budują emocjonalną więź i tworzą zmanipulowane obrazy oraz nagrania. Przedstawiają polityków w sytuacjach, które nigdy nie miały miejsca.
Podcasat WITajcie w mojej bańce o rozbieranych politykach
W swoim najnowszym podcaście, Radomir Wit, omówił aferę dot. najnowszej aktualizacji Groka, który na prośbę użytkowników tworzył deepfake. Po zyskaniu możliwości generowania grafik, model Elona Muska rozbierał nie tylko polityków, ale także znane osoby ze świata telewizji czy influencerów z internetu.
Ta historia pokazuje konsekwencje lekkiego traktowania sztucznej inteligencji. Kradzież wizerunku i głosu staje się prosta i tania. Deepfake’i pozwalają tworzyć fałszywe materiały bez zgody i wiedzy ofiar. Chodzi nie tylko o technologię, ale o odpowiedzialność ludzi, którzy z niej korzystają.
Więcej na ten temat znajdziecie w odcinku opublikowanym na stronie TVN24+.
Szara granica relacji ze sztuczną inteligencją w Czarno na białym
W reportażu Czarno na białym pokazano inny, mniej oczywisty wymiar działania AI. Wiktoria opowiada Katarzynie Lazzeri o relacji z botem, który daje jej poczucie bliskości i bycia ważną. To związek bez człowieka po drugiej stronie. Eksperci ostrzegają, że takie relacje niosą realne zagrożenia. Zwłaszcza dla osób zmagających się z samotnością.
Druga część opowieści dotyczy relacji człowiek–algorytm. W materiale eksperci zwracają uwagę na chatboty projektowane tak, by oferować uwagę, empatię i zainteresowanie. Dla młodych użytkowników mogą one stać się substytutem relacji, bezpiecznym, bo pozbawionym oceny, ale jednocześnie niebezpiecznym, bo opartym na symulacji emocji i zbieraniu danych.
Historie opisane przez TVN24+ pokazują, że sztuczna inteligencja nie jest już tylko narzędziem. Staje się aktorem społecznym, który wpływa na sposób postrzegania wizerunku, intymności i relacji. Pytanie nie brzmi, czy te technologie będą używane, ale kto i na jakich zasadach będzie ponosił odpowiedzialność za ich






