Wczoraj rano, Google DeepMind za pomocą swoich dróg komunikacji ogłosił powstanie organizacji AI Safety and Alingment. Podmiot ten składający się z istniejących już zespołów ma pracować nad bezpieczeństwem AI. Dodatkowo ma być on wzbogacony w przyszłości o nowych badaczy i inżynierów zajmujących się GenAI. Na obecną chwilę nie wiadomo, ile osób w przyszłości dołączy do organizacji.
Super zespół Google do zadań specjalnych
Nowy zespół ma być wzorowany na konkurencyjnej dywizji Superalignment, od OpenAI. Będzie on także współpracował na bieżąco z istniejącym już zespołem badawczym Scalable Alignment działającym w Londynie. Obie organizacje, mimo że do siebie podobne to będą obejmowały swoim działaniem inne obszary, gdyż stworzone wczoraj AI Safty skupi się głównie na Stanach Zjednoczonych.
AI Safety and Alignment ma odpowiadać przede wszystkim, za opracowywanie i wdrażanie zabezpieczeń w obecnych modelach Gemini. Organizacja ma również się skupić na zapewnianiu bezpieczeństwa dzieciom, zapobieganiu uprzedzeniom i złym poradom medycznym. Zespołem ma pokierować Anca Dragan, profesor informatyki na Uniwersytecie Kalifornijskim w Berkeley.
- Nasza praca w organizacji AI Safety and Alignment ma na celu umożliwienie modelom lepszego i solidniejszego zrozumienia ludzkich preferencji i wartości. Aby dowiedzieć się, czego nie wiedzą, aby zrozumieć ich potrzeb oraz uzyskania świadomego nadzoru. - mówi Anca Dragan.
Technologiczny sceptycyzm
W obecnie panującym świecie drastycznie wzrasta zjawisko sceptycyzmu wobec narzędzi GenAI. Ankieta przeprowadzona przez YouGov wykazuje, że aż 80% Amerykanów, czuje zaniepokojenie związane z wprowadzaniem do Internetu deepfake'ów. Natomiast konkurencyjne badania wykonane przez Associated Press dowodzą, że 60% dorosłych uważa, że AI zwiększa liczbę deepfake'ów w tegorocznych wyborach w USA.
Na całą sytuację odpowiada profesor Anca Dragan, która ma świadomość wyzwań, z którymi jej zespół będzie musiał się zmierzyć.
- Myślę, że kluczem jest… uwzględnienie pozostałych ludzkich błędów poznawczych w danych, których używamy do szkolenia, aby wiedzieć, gdzie są luki. Ale to wciąż pozostawia otwarty problem: jak mieć pewność, że model nie będzie zachowywał się niewłaściwie przez niewielki ułamek czasu, który jest trudny do znalezienia empirycznie. Nie jestem przekonanana, że społeczeństwo i organy regulacyjne będą tak wyrozumiałe. Przypuszczam, że będzie to zależeć od tego, jak rażące są te niewłaściwe zachowania i kto dokładnie zostaje przez nie skrzywdzony. Mamy nadzieję, że nasi użytkownicy z biegiem czasu będą korzystać z coraz bardziej przydatnego i bezpiecznego modelu. - podsumowuje Dragan.



