Zuckerberg: możemy zaufać Meta z superinteligentną AI

    Twórca Facebooka reaguje na coraz częstsze wezwania do zatrzymania prac nad najbardziej zaawansowaną AI. Jego zdaniem Meta działa zgodnie z naukowymi zasadami i kieruje się bezpieczeństwem. Firma udostępnia badania i modele, by ograniczać ryzyko. Taki model buduje zaufanie do organizacji, która już dziś wdraża najpotężniejsze systemy AI.

    Co istotne, jego stanowisko to bezpośrednia odpowiedź na apel o wstrzymanie rozwoju zaawansowanej AI, opublikowany kilka miesięcy wcześniej przez liderów branży w ramach tzw. „otwartego listu” (Pause Giant AI Experiments). Podpisał się pod nim m.in. Sam Altman (CEO OpenAI), Elon Musk (xAI, Tesla), Emad Mostaque (Stability AI), Yoshua Bengio (MILA), a także badacze z DeepMind, Google, Anthropic, Cohere, Microsoft, Mozilla, Hugging Face, OpenResearch, UC Berkeley, NYU, MIT, Oxford, Cambridge i wielu innych instytucji. Sygnatariusze ostrzegali, że systemy AI potężniejsze od GPT-4 mogą stanowić egzystencjalne zagrożenie i postulowali globalne moratorium. Zuckerberg wyraźnie odcina się od tej wizji i promuje podejście oparte na otwartości.

    W swoim liście Zuckerberg odrzuca pomysł globalnego zatrzymania prac nad superinteligencją. Choć nie wspomina wprost o Samie Altmanie i OpenAI, wyraźnie odnosi się do ich poglądów. Zamiast tego, Meta proponuje współpracę z naukowcami i regulatorami. Co więcej, firma nie zamierza hamować postępu technologicznego, lecz chce go kształtować wspólnie ze środowiskiem badawczym.

    Zuckerberg zapewnia, że Meta przeprowadza solidne testy przed udostępnieniem modeli. Jego zdaniem rozwój superinteligencji to proces wymagający rozwagi i odpowiedzialności. Jednocześnie podkreśla, że kluczowe są otwartość oraz współpraca międzynarodowa, które mogą zapewnić odpowiedni poziom kontroli.

    Materiał powstał we współpracy z AI:

    spot_imgspot_img

    Related articles

    Wyciek Samsunga niczego nie nauczył. Rządowe kontrakty w publicznym ChatGPT

    Madhu Gottumukkala, szef Agencji ds. Cyberbezpieczeństwa i Bezpieczeństwa Infrastruktury, pod lupą po wykorzystaniu ChatGPT do pracy z dokumentami rządowymi.

    Nowe narzędzie AI, stara luka bezpieczeństwa. Co na to Anthropic?

    W nowo uruchomionym narzędziu Claude Cowork firmy Anthropic wykryto znaną podatność. Problem był potwierdzony przez firmę wiele miesięcy temu, lecz nigdy go nie usunięto.

    Google Gemini zmienia limity zapytań. Jest lepiej

    Google wprowadził zmiany w sposobie naliczania limitów zapytań dla modeli Gemini 3. Aktualizacja zmienia dotychczasowy mechanizm - i jest to bardzo dobra wiadomość.

    Dobrze już było. OpenAI o reklamach w ChatGPT

    Dyskusja o tym, jak OpenAI zacznie realnie zarabiać, trwa już od miesięcy. Firma, której wycena sięga pięciuset miliardów dolarów, długo unikała klasycznych modeli monetyzacji.

    Edukacja w dobie AI. Microsoft z bezpłatnymi usługami dla szkół

    Microsoft ogłosił znaczące rozszerzenie swojej oferty skierowanej do sektora...
    spot_imgspot_img