Gina Raimondo podkreśliła, że przywództwo Stanów Zjednoczonych w rozwoju bezpiecznej i odpowiedzialnej sztucznej inteligencji (AI) wymaga zaangażowania najjaśniejszych umysłów.
– Dzięki liderstwu prezydenta Bidena, znajdujemy się w pozycji siły, aby sprostać wyzwaniom stawianym przez AI, jednocześnie promując największą siłę Ameryki: innowacyjność – powiedziała Raimondo.
Kelly wniosła już istotny wkład w regulacje dotyczące AI w administracji Bidena, biorąc udział w opracowywaniu wykonawczego rozporządzenia dotyczącego AI od samego początku. Była “siłą napędową za krajowymi składnikami wykonawczego rozporządzenia dotyczącego AI, promując konkurencję, ochronę prywatności, wsparcie dla pracowników i konsumentów, a także prowadząc zaangażowanie administracji z sojusznikami i partnerami w zakresie zarządzania AI,” jak wskazano w komunikacie prasowym ogłaszającym jej nominację.
Przed objęciem tej roli, Kelly była specjalnym doradcą prezydenta ds. polityki ekonomicznej w Krajowej Radzie Gospodarczej Białego Domu. Służyła również w administracji Bidena i Obamy, a wcześniej pracowała w bankowości.
USAISI, które zostało ustanowione przez Biały Dom pod koniec zeszłego roku, ma na celu opracowanie testów bezpieczeństwa AI do użytku przez regulatorów. Jest to jedna z wielu inicjatyw podjętych przez polityków w USA i na świecie mających na celu ograniczenie ryzyka związanego z szybkim postępem AI. Wykonawcze rozporządzenie administracji Bidena w zakresie AI ma na celu rozwiązanie szeregu problemów związanych z AI, w tym wpływu AI na prawa obywatelskie i brak przyjęcia AI przez rząd, ale również wymaga, aby firmy rozwijające największe i najpotężniejsze modele AI zgłaszały wyniki przeprowadzonych testów bezpieczeństwa.
Wiceprezydent Kamala Harris ogłosiła utworzenie USAISI w listopadzie podczas swojej wizyty w Wielkiej Brytanii na pierwszym globalnym szczycie bezpieczeństwa AI. Mówiąc w ambasadzie USA w Londynie, Harris stwierdziła, że USAISI będzie “tworzyć rygorystyczne standardy do testowania bezpieczeństwa modeli AI do użytku publicznego.“
Dzień po ogłoszeniu przez USA, Wielka Brytania ogłosiła utworzenie własnego instytutu bezpieczeństwa AI. Premier Wielkiej Brytanii, Rishi Sunak, powiedział podczas szczytu bezpieczeństwa AI, że “do tej pory jedynymi osobami testującymi bezpieczeństwo nowych modeli AI były firmy, które je rozwijają,” i że nowo utworzone instytucje bezpieczeństwa AI w USA i Wielkiej Brytanii zaradzą temu, dostarczając “możliwości sektora publicznego do testowania najbardziej zaawansowanych modeli na froncie.”
Japonia również ogłosiła, że utworzy własny instytut bezpieczeństwa AI w grudniu 2023 roku.
Kelly w swoim oświadczeniu powiedziała, że ambitny mandat Instytutu do opracowywania wytycznych, oceny modeli i prowadzenia podstawowych badań będzie kluczowy dla adresowania ryzyk i wykorzystywania możliwości AI.
– Cieszę się, że będę pracować z utalentowanym zespołem NIST i szerszą społecznością AI, aby poszerzać nasze naukowe zrozumienie i promować bezpieczeństwo AI. Chociaż naszym pierwszym priorytetem będzie wykonanie zadań przypisanych do NIST w wykonawczym rozporządzeniu prezydenta Bidena, z niecierpliwością czekam na budowanie Instytutu jako długoterminowego zasobu dla kraju i świata – dodała Elizabeth Kelly.
Elham Tabassi, wcześniej zastępca dyrektora ds. nowych technologii w Laboratorium Technologii Informacyjnych Narodowego Instytutu Norm i Technologii (NIST), będzie pełnić funkcję dyrektora technologicznego USAISI. Instytut został utworzony w ramach NIST, gdzie Kelly będzie odpowiadać za kierownictwo wykonawcze i zarządzanie instytutem, a Tabassi będzie prowadzić jego programy techniczne.
Kilka dni temu, w Brukseli, prawodawcy zgodzili się na ostateczny tekst Aktu o AI UE, przełomowej regulacji UE dotyczącej AI. Ponownie, przepisy te mają na celu adresowanie wielu problemów związanych z AI, w tym wymóg testowania bezpieczeństwa dla najpotężniejszych modeli AI.