OpenAI oficjalnie celuje w superinteligencję

Ten materiał powstał dzięki Waszemu wsparciu. Postaw mi kawę na buycoffee.to


OpenAI, firma stojąca za popularnymi modelami sztucznej inteligencji, zapowiedziała, że jej głównym celem na najbliższy rok będzie rozwijanie tak zwanej „superinteligencji”. Sam Altman w swoim bloku napisał, że superinteligencja przewyższy możliwości człowieka i pozwoli na wykonywanie zadań, które dotąd uznawane były za niemożliwe lub skrajnie trudne.

Dlaczego superinteligencja?

Altman podkreśla, że już obecne produkty OpenAI posiadają imponujący wachlarz umiejętności, ale superinteligencja pozwoliłaby na przyspieszenie postępów w nauce i dalsze „ulepszanie społeczeństwa”. Zwraca uwagę, że brzmi to nieco jak science-fiction, jednak przypomina, że OpenAI wielokrotnie rozpoczynało prace nad rzeczami początkowo uznawanymi za nierealne.

Od AGI do superinteligencji

W dotychczasowej terminologii za najważniejszy cel branży AI uznawano AGI (Artificial General Intelligence) – system o możliwościach dorównujących człowiekowi. Superinteligencja to krok dalej, czyli poziom sztucznej inteligencji przewyższający ludzkie zdolności. Altman już od kilku lat wspomina o superinteligencji, ostrzegając jednocześnie o ryzyku braku kontroli nad tak potężnymi systemami.

Kontrowersje wokół bezpieczeństwa

OpenAI powołało w lipcu 2023 roku zespół badawczy do „ujarzmienia superinteligentnej AI” – miał on otrzymać 20% całej mocy obliczeniowej firmy. Wkrótce jednak okazało się, że firma nie ma pewności, jak skutecznie kierować i kontrolować systemami o „nadludzkim” poziomie inteligencji. W maju 2024 roku zespół ds. bezpieczeństwa superinteligencji został rozwiązany, a część specjalistów, w tym Jan Leike i Ilya Sutskever, odeszła z firmy. Mimo to Altman nadal utrzymuje, że priorytetem OpenAI jest właśnie bezpieczeństwo i odpowiedzialne wdrażanie nowych modeli.

Różne szacunki dotyczące czasu rozwoju

W listopadzie 2023 roku OpenAI sugerowała, że osiągnięcie superinteligencji może nastąpić w ciągu dekady. Kilka miesięcy później Altman stwierdził, że to kwestia „kilku tysięcy dni”. Z kolei Brent Smolinski z IBM twierdzi, że przewidywania o rychłym rozwoju superinteligencji są przesadzone i że technologia nie jest jeszcze wystarczająco zaawansowana. Według niego dopiero komputery kwantowe mogą w przyszłości utorować drogę do systemów przewyższających intelekt człowieka.

AI agenci w nadchodzących latach

Mimo wciąż toczącej się dyskusji o odległej przyszłości superinteligencji, Altman prognozuje, że już w 2025 roku na rynku pracy mogą pojawić się tak zwani „AI agenci” – półautonomiczne systemy generatywne, które będą wykonywać złożone zadania w firmach. Prognozy Gartnera przewidują, że do 2028 roku aż 33% oprogramowania dla przedsiębiorstw zostanie wzbogacone o „agentic AI”, a 15% codziennych decyzji w miejscach pracy podejmą właśnie tacy agenci.

Bezpieczeństwo i przyszły rozwój

Altman utrzymuje, że dla OpenAI najważniejsze jest stopniowe wprowadzanie nowych technologii, tak aby społeczeństwo miało czas na przystosowanie się do zmian. Jednocześnie podkreśla, że w ciągu kilku lat wyraźniej zobaczymy, dlaczego tak istotne jest ostrożne i odpowiedzialne podejście do rozwoju sztucznej inteligencji, której ostatecznym celem ma być właśnie superinteligencja.



Ten materiał powstał dzięki Waszemu wsparciu. Postaw mi kawę na buycoffee.to

Add a comment

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *