Mark Zuckerberg opublikował list, w którym zapewnia, że Meta rozwija superinteligencję w sposób bezpieczny i odpowiedzialny. Zaznacza, że nie potrzebujemy globalnego moratorium, a otwartość to najlepsza droga.
Twórca Facebooka reaguje na coraz częstsze wezwania do zatrzymania prac nad najbardziej zaawansowaną AI. Jego zdaniem Meta działa zgodnie z naukowymi zasadami i kieruje się bezpieczeństwem. Firma udostępnia badania i modele, by ograniczać ryzyko. Taki model buduje zaufanie do organizacji, która już dziś wdraża najpotężniejsze systemy AI.
Co istotne, jego stanowisko to bezpośrednia odpowiedź na apel o wstrzymanie rozwoju zaawansowanej AI, opublikowany kilka miesięcy wcześniej przez liderów branży w ramach tzw. „otwartego listu” (Pause Giant AI Experiments). Podpisał się pod nim m.in. Sam Altman (CEO OpenAI), Elon Musk (xAI, Tesla), Emad Mostaque (Stability AI), Yoshua Bengio (MILA), a także badacze z DeepMind, Google, Anthropic, Cohere, Microsoft, Mozilla, Hugging Face, OpenResearch, UC Berkeley, NYU, MIT, Oxford, Cambridge i wielu innych instytucji. Sygnatariusze ostrzegali, że systemy AI potężniejsze od GPT-4 mogą stanowić egzystencjalne zagrożenie i postulowali globalne moratorium. Zuckerberg wyraźnie odcina się od tej wizji i promuje podejście oparte na otwartości.
Bezpieczeństwo? Tak, ale bez paniki
W swoim liście Zuckerberg odrzuca pomysł globalnego zatrzymania prac nad superinteligencją. Choć nie wspomina wprost o Samie Altmanie i OpenAI, wyraźnie odnosi się do ich poglądów. Zamiast tego, Meta proponuje współpracę z naukowcami i regulatorami. Co więcej, firma nie zamierza hamować postępu technologicznego, lecz chce go kształtować wspólnie ze środowiskiem badawczym.
Zuckerberg zapewnia, że Meta przeprowadza solidne testy przed udostępnieniem modeli. Jego zdaniem rozwój superinteligencji to proces wymagający rozwagi i odpowiedzialności. Jednocześnie podkreśla, że kluczowe są otwartość oraz współpraca międzynarodowa, które mogą zapewnić odpowiedni poziom kontroli.
Materiał powstał we współpracy z AI:

