Connect with us

Raport Capgemini: etyczne AI to wymierna korzyść dla firm

TECHNOLOGIE

Raport Capgemini: etyczne AI to wymierna korzyść dla firm

Według najnowszego badania Capgemini „Why addressing ethical questions in AI will benefit organizations” niemal 9 na 10 menedżerów jest świadoma przypadków, w których sztuczna inteligencja doprowadziła do problemów etycznych, a 77% kadry kierowniczej nie ma pewności co do etyki i transparentności systemów AI w ich firmach. Niemal połowa konsumentów uważa, że w ciągu ostatnich dwóch lat doświadczyło przynajmniej dwóch typów interakcji z AI, które skutkowały problemami etycznymi. Tymczasem badanie jasno wskazuje, że etyczne interakcje z AI budują zaufanie i satysfakcję klientów i przekładają się bezpośrednio na zysk organizacji.

Najwięcej odpowiedzi dotyczących negatywnych kontaktów z AI – aż 74%, pojawiło się w Chinach, a wśród przebadanych krajów europejskich prym wiedzie Francja – 49%. Również pracownicy firm, które korzystają z rozwiązań wspieranych przez sztuczną inteligencję wskazują na jej niewłaściwe użycie. Co najmniej 40% pracowników natknęło się na jakąś formę użycia sztucznej inteligencji, które spowodowało problemy etyczne. 44% pracowników zgłasza też obawy dotyczące potencjalnie szkodliwego działania systemów sztucznej inteligencji, a 42% pracowników sprzeciwia się niewłaściwemu wykorzystaniu danych osobowych i informacji przez AI. 76% konsumentów oczekuje od rządów oraz niezależnych organizacji opracowania przepisów dotyczących sztucznej inteligencji.  

Biznes potrzebuje etycznego AI

Firmy zdają sobie sprawę z powagi sytuacji, ale nie zawsze potrafią sobie z nią poradzić. Ponad połowa kadry zarządzającej postrzega transparentność i etykę systemów sztucznej inteligencji za ważną kwestię. Organizacje podejmują również konkretne działania, kiedy już pojawiają się problemy związane z AI.  64% opracowuje długofalową strategię związaną z ich rozwiązywaniem i zapobieganiem, ponad połowa spowalnia prace nad systemami i wprowadza ich mniej zaawansowane wersje. Dwóch na pięciu menedżerów przyznaje, że w ogóle porzuciło projekty związane ze sztuczną inteligencją po ujawnieniu kwestii etycznych. 

– Etyka w AI to temat nowy i pojawiające się problemy do tej pory spotykały się raczej z działaniem reaktywnym. Są oczywiście pozytywne przykłady – firma GE Healthcare zobowiązała się do zatrudniania zdywersyfikowanego zespołu pracującego nad sztuczną inteligencją, żeby zapobiec możliwej dyskryminacji. Osiemdziesiąt procent grupy zajmującej się data science rekrutuje się spośród mniejszości, 44% osób przebywa poza USA, a 26% to kobiety. Firma wprowadziła również dojrzałe praktyki w zakresie analizy danych – muszą pochodzić ze sprawdzonych źródeł i mieć jasno zdefiniowane możliwości wykorzystania. Etyczne AI jest również praktykowane w mniejszych firmach, które dopiero wchodzą na rynek i postrzegają w tym możliwość zyskania przewagi konkurencyjnej – mówi Mirosław Bartecki, główny architekt AI w Capgemini Business Services– jeden z twórców opartej na sztucznej inteligencji aplikacji Cash Collector, nagrodzonej Artificial Intelligence Breakthrough Award 2019. 

Etyczne AI buduje zaufanie klientów

Mają rację, bowiem badanie jasno wskazuje, że etyczne działania AI budują zaufanie i satysfakcję klientów. Niemal dwie trzecie twierdzi, że zgodna z kodeksem etycznym interakcja ze sztuczną inteligencją jest powodem ich większego zaufania do organizacji, a niemal tyle samo osób jest skłonna podzielić się tym faktem z przyjaciółmi i rodziną oraz deklaruje większą lojalność wobec marki. 55% kupi więcej produktów i podzieli się pozytywnym doświadczeniem w social mediach. Organizacje, których systemy sztucznej inteligencji konsumenci uważają za etyczne, cieszą się 44-punktową przewagą Net Promoter Score (NPS®) nad innymi firmami (NPS® jest podstawową miarą dla programów zarządzania doświadczeniami klientów na całym świecie). 

Jak dyskryminuje AI?

Gdzie AI najczęściej nie zdawało egzaminu z etyki – czyli doprowadziło do rezultatów, które są niewytłumaczalne, niesprawiedliwe, nieprzejrzyste lub stronnicze wobec pewnej grupy użytkowników? Wśród 10 najczęściej wymienianych obszarów na najwyższym miejscu znalazło się nadmierne poleganie na decyzjach kierowanych przez maszyny bez ujawniania informacji na ten temat w sektorze bankowym, następnie zbieranie i przetwarzanie danych osobowych pacjentów w algorytmach sztucznej inteligencji bez ich zgody oraz niejednoznaczne lub niejasne zalecenia z systemu opartego na sztucznej inteligencji dotyczące diagnostyki, opieki czy leczenia.

Wśród konkretnych przykładów również z innych obszarów znalazło się korzystanie z opartego na sztucznej inteligencji systemu, który nie jest w stanie wyjaśnić, na jakiej podstawie podjął decyzję o odmowie udzielenia kredytu lub wypłaty odszkodowania lub nie można go poddać audytowi przy podejmowaniu decyzji, wykorzystanie sztucznej inteligencji w rekrutacji, co skutkuje dyskryminacją kandydatów pod kątem płci, pochodzenia etnicznego, wieku lub innych czynników czy dyskryminacyjna polityka cenowa wynikająca z automatycznych decyzji AI.

Mirosław Bartecki wskazuje, że główną przyczyną tego typu problemów jest brak odpowiedniej kontroli czy interpretacji ludzkiej.

– Nie da się zagwarantować, że AI będzie etyczne, jeśli nie podlega ludzkiej kontroli. Samo w sobie AI nie ocenia ludzi na podstawie kryteriów dyskryminacyjnych, ale kieruje się danymi statystycznymi, które mogą być mylące. Przykład? Analiza procesów biznesowych, które przeprowadzamy w dwóch różnych centrach Capgemini na świecie  – w obu przypadkach mamy 5 rzeczy do procesowania, ale w pierwszym wykonano 22 telefony, załatwiając wszystkie, a w drugim jeden godzinny, ale załatwiając tylko dwie – za to bardzo ważne sprawy. AI wyciągnie tu oczywisty wniosek o efektywności, bo jest jeszcze zbyt mało zaawansowane żeby przeanalizować faktyczną wagę rozmów. Nie ma AI, które by odwzorowało człowieka – to co nie jest abstrakcyjne i jest pozbawione jakichkolwiek ocen i uczuć, nie może być do końca etyczne – komentuje Mirosław Bartecki

Dlaczego firmy nie potrafią sobie z takimi problemami radzić? 34% kadry kierowniczej wskazało presję rynku na implementację AI celem szybkiego uzyskania związanych z tym benefitów, bez odpowiednio zaadresowanych kwestii etycznych. 33% przyznało, że zagadnienia etyczne w ogóle nie były rozpatrywane przy implementacji AI. 31% nie miało zasobów w postaci specjalistów i technologii odpowiednich do rozwijania etycznej sztucznej inteligencji, a 29% nie zapewniło odpowiedniej dywersyfikacji pod kątem rasy czy płci w zespole projektującym rozwiązania z użyciem AI. 

Pierwsze kroki do etycznego AI

W jaki sposób organizacje mogą budować etyczne systemy oparte na sztucznej inteligencji? Capgemini zaleca trójstopniowe podejście do budowania strategii etyki w AI, która obejmuje wszystkich kluczowych interesariuszy:

  • Wskazówki dla CXO, liderów biznesu i osób posiadających kompetencje w zakresie zaufania i etyki: powinni stworzyć silną podstawę ze strategią i kodeksem postępowania w zakresie etyki AI; opracować zasady definiujące dopuszczalne praktyki dla pracowników i aplikacji AI; tworzyć struktury zarządzania etyką i zapewnić odpowiedzialność za systemy sztucznej inteligencji; budować różnorodne zespoły, aby zapewnić wrażliwość AI na pełne spektrum problemów etycznych
  • Dla zespołów obsługujących klientów i pracowników, takich jak HR, marketing, komunikacja i obsługa klienta: powinni upewnić się na temat etycznego wykorzystania aplikacji AI; edukować i informować użytkowników na temat budowania zaufania do systemów sztucznej inteligencji; zapewnić użytkownikom większą kontrolę oraz możliwość szukania pomocy; proaktywnie komunikować w sprawach AI wewnętrznie i zewnętrznie, aby budować zaufanie
  • Dla zespołów budujących rozwiązania AI, analityków danych oraz innych specjalistów AI: powinni sprawić, aby systemy sztucznej inteligencji były przejrzyste i zrozumiałe, aby zyskać zaufanie użytkowników; praktykować dobre zarządzanie danymi i ograniczyć potencjalne błędy w danych, jak też wykorzystywać narzędzia technologiczne do budowania etyki w sztucznej inteligencji.

Jak podkreśla Mirosław Bartecki, współdziałanie z etycznym zespołem jest kluczowe dla wsparcia podejmowania właściwych decyzji przez sztuczną inteligencję:
– AI samo w sobie nie ocenia na podstawie domysłów, uprzedzeń, bierze pod uwagę tylko czyste fakty i działa zgodnie z zadanymi regułami – problemem jest na przykład etyczne zastosowanie tych wyników. To człowiek musi być na końcu elementem kontrolnym. Trudno oczekiwać, żeby AI miało współczucie. Trudno wymagać od AI takich kompetencji, chociaż – przewrotnie – logiczne i bazujące na faktach AI często jest bardziej etyczne w ocenie niż ludzie – tak może się dziać na przykład w przypadku kobiet, które mają wyższe kompetencje niż mężczyźni, ale często stają w obliczu społecznych stereotypów, których AI nie zna. – komentuje Bartecki.

Jest więc oczywiste, że w AI drzemie ogromny potencjał i że sztuczna inteligencja zmieni relacje między konsumentami a organizacjami. Ten związek będzie jednak tylko tak silny, jak etyka, która za nim stoi.

Redakcja

CCNEWS.pl to jedyny specjalistyczny newsowo-publicystyczny wortal internetowy w Polsce w całości poświęcony zagadnieniom związanym z obsługą klienta, customer services, omnichannel, customer experience i technologiom wykorzystywanym przez centra obsługi klienta. Informuje, edukuje i komentuje aktualne trendy i wydarzenia na Polskim rynku CC. Od 14 lat dostarcza wartościową wiedzę o polskim rynku CC i BPO. Zdaniem niezależnych instytutów badawczych: Instytut Monitorowania Mediów oraz Press Service Monitoring Mediów jesteśmy najchętniej czytanym i najbardziej angażującym swoich czytelników portalem branżowym (branży customer care) w Polsce.

Skomentuj

POPULARNE