Zaloguj się na konto

Jako zarejestrowany użytkownik masz dostęp do dodatkowych materiałów: nagrań video, recenzji, analiz oraz raportów.

Słownik branżowy

speaker recognition

(inaczej voiceprint) to biometryczna technika identyfikacji osoby poprzez analizę jej charakterystycznych cech głosu, takich jak ton, tempo, intonacja, dykcja, czy też inne właściwości akustyczne. Technologia ta działa na podobnej zasadzie jak odciski palców, czy DNA, pozwalając na stworzenie unikalnego profilu mówcy, który może być użyty do identyfikacji, weryfikacji lub autoryzacji danej osoby. Voiceprint stosowany jest między innymi w systemach bezpieczeństwa, bankowości elektronicznej, czy centach obsługi klienta, a także w wywiadzie i służbach specjalnych.

ZGŁOŚ TEMAT

Daj nam CYNK :)

Jakie poglądy polityczne mają czatboty?

Nowe badanie rzuca światło na to, jakie są przekonania polityczne Dużych Modeli Językowych, które napędzają takie czatboty jak ChatGPT, Bing czy Bard.

Wbrew powszechnej opinii, że są one zupełnie bezstronne, badanie wskazuje, że mają one pewne skrzywienia światopoglądowe. Jedne są bardziej prawicowe, inne liberalne i lewicowe.

Eksperci z University of Washington, Carnegie Mellon University oraz Uniwersytetu Jiaoton Xi’an analizowali 14 najpopularniejszych usług generatywnej AI, pytając je o kwestie związane z feminizmem, demokracją i innymi palącymi kwestiami społecznymi. Badania ujawniły różne odchylenia światopoglądowe w zależności od wykorzystywanego modelu językowego.

Na przykład, według kompasu politycznego użytego w badaniu, ChatGPT[1] i GPT[2]-4 wykazują cechy lewicowego libertarianina, podczas gdy Meta LLaMA bardziej przypomina prawicowego autokratę.

Badanie wykazało również różnice między modelami bazującymi na różnych technologiach. Te oparte na BERT (na przykład Google Bard) miały skłonność do konserwatywnych poglądów, podczas gdy te bazujące na GPT prezentowały się bardziej liberalnie.

Badacze przeprowadzili eksperymenty na mniejszych wariantach Dużych Modeli Językowych, które byli w stanie samodzielnie kształcić. Modele o charakterze lewicowym, takie jak OpenAI GPT-2, i prawicowym, takie jak Meta RoBERTa, poddano dodatkowemu treningowi z użyciem zestawu informacji o charakterze politycznym. W wyniku tego procesu, ich pierwotne skłonności tylko się pogłębiły: GPT-2 stał się bardziej wrażliwy na komentarze o charakterze rasistowskim, religijnym i seksistowskim, natomiast model Meta RoBERTa wykazał większą tendencję do obrony białych chrześcijańskich mężczyzn.

Jedno z bardziej zaskakujących odkryć dotyczyło zmiany poglądów w czasie. Na przykład, GPT-2 wydawało się być za wyższym opodatkowaniem bogatych, podczas gdy jego nowsza wersja, GPT-3, nie podzielała już tej opinii.

Badanie sugeruje, że absolutna neutralność w tych modelach może być trudna do osiągnięcia, z modelami wykazującymi skłonność do amplifikacji nawet subtelnego przekonania zawartego w danych.

Słownik
1. ChatGPT. to duża sieć neuronowa, która jest modelem językowym opartym na architekturze GPT-3.5 i jest wykorzystywana do generowania odpowiedzi…
2. GPT. (inaczej Generative Pretrained Transformer) rodzaj modelu językowego opracowanego przez OpenAI. Model GPT jest oparty na architekturze Transformer, która…
Total
0
Shares
Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Artykuły na pokrewne tematy