Zuckerberg: możemy zaufać Meta z superinteligentną AI

Twórca Facebooka reaguje na coraz częstsze wezwania do zatrzymania prac nad najbardziej zaawansowaną AI. Jego zdaniem Meta działa zgodnie z naukowymi zasadami i kieruje się bezpieczeństwem. Firma udostępnia badania i modele, by ograniczać ryzyko. Taki model buduje zaufanie do organizacji, która już dziś wdraża najpotężniejsze systemy AI.

Co istotne, jego stanowisko to bezpośrednia odpowiedź na apel o wstrzymanie rozwoju zaawansowanej AI, opublikowany kilka miesięcy wcześniej przez liderów branży w ramach tzw. „otwartego listu” (Pause Giant AI Experiments). Podpisał się pod nim m.in. Sam Altman (CEO OpenAI), Elon Musk (xAI, Tesla), Emad Mostaque (Stability AI), Yoshua Bengio (MILA), a także badacze z DeepMind, Google, Anthropic, Cohere, Microsoft, Mozilla, Hugging Face, OpenResearch, UC Berkeley, NYU, MIT, Oxford, Cambridge i wielu innych instytucji. Sygnatariusze ostrzegali, że systemy AI potężniejsze od GPT-4 mogą stanowić egzystencjalne zagrożenie i postulowali globalne moratorium. Zuckerberg wyraźnie odcina się od tej wizji i promuje podejście oparte na otwartości.

W swoim liście Zuckerberg odrzuca pomysł globalnego zatrzymania prac nad superinteligencją. Choć nie wspomina wprost o Samie Altmanie i OpenAI, wyraźnie odnosi się do ich poglądów. Zamiast tego, Meta proponuje współpracę z naukowcami i regulatorami. Co więcej, firma nie zamierza hamować postępu technologicznego, lecz chce go kształtować wspólnie ze środowiskiem badawczym.

Zuckerberg zapewnia, że Meta przeprowadza solidne testy przed udostępnieniem modeli. Jego zdaniem rozwój superinteligencji to proces wymagający rozwagi i odpowiedzialności. Jednocześnie podkreśla, że kluczowe są otwartość oraz współpraca międzynarodowa, które mogą zapewnić odpowiedni poziom kontroli.

Materiał powstał we współpracy z AI:

spot_imgspot_img

Related articles

Naukowcy rozpieszczani przez OpenAI. Nowe narzędzie jest bezpłatne

OpenAI zaprezentowało Prism, bezpłatne środowisko pracy oparte na sztucznej inteligencji. Narzędzie powstało z myślą o pisaniu naukowym oraz współpracy zespołowej.

xAI uruchamia Grok Imagine. Co z kontrowersyjnymi materiałami?

irma xAI należąca do Elona Muska oficjalnie udostępniła Grok Imagine 1.0. Spółka określa tę wersję jako największy dotąd postęp w generowaniu wideo i dźwięku z użyciem sztucznej inteligencji

OpenAI reaguje na popularność Claude Code. Nowa aplikacja już jest

Asystent programowania Codex już wcześniej starał się nadgonić swojego konkurenta, ale nieskutecznie. Zmienić ma to nowa aplikacja, która poprawi doświadczenie programisty z maszyną.

Wyciek Samsunga niczego nie nauczył. Rządowe kontrakty w publicznym ChatGPT

Madhu Gottumukkala, szef Agencji ds. Cyberbezpieczeństwa i Bezpieczeństwa Infrastruktury, pod lupą po wykorzystaniu ChatGPT do pracy z dokumentami rządowymi.

Nowe narzędzie AI, stara luka bezpieczeństwa. Co na to Anthropic?

W nowo uruchomionym narzędziu Claude Cowork firmy Anthropic wykryto znaną podatność. Problem był potwierdzony przez firmę wiele miesięcy temu, lecz nigdy go nie usunięto.
spot_imgspot_img