Jednym z najważniejszych zagrożeń, o którym należy pamiętać przy wdrażaniu rozwiązań opartych na AI, są tzw. halucynacje AI, czyli sytuacje, gdy generowane przez systemy AI odpowiedzi nie odzwierciedlają rzeczywistości, mogąc być mylące lub nieprawidłowe.
Przykładem może być sytuacja, gdy system AI, taki jak ChatGPT[1], dostarcza odpowiedzi, które nie są dokładnym odzwierciedleniem zadanych pytań lub są błędnie zinterpretowane. Halucynacje AI mogą prowadzić do wprowadzenia klientów w błąd, co w kontekście obsługi klienta może skutkować utratą zaufania i pogorszeniem doświadczenia użytkownika.
Kilka przykładów
Aby jeszcze bardziej zilustrować zagrożenia związane z halucynacjami AI w obszarach obsługi klienta, warto rozważyć kilka hipotetycznych, lecz realistycznych przykładów, które mogą wystąpić, gdy technologie te są niewłaściwie wdrożone lub używane bez odpowiednich zabezpieczeń:
- Nieprawidłowe informacje o produkcie: załóżmy, że klient pyta chatbota o specyfikację techniczną nowego modelu smartfona. Jeśli system AI nie jest aktualny lub z jakiegoś powodu “halucynuje”, może dostarczyć dane dotyczące starszego modelu, sugerując na przykład, że nowy model ma mniej pamięci RAM niż faktycznie. Taka sytuacja może wprowadzić klienta w błąd, co do decyzji zakupowej.
- Błędne dane o dostępności produktu: klient chce kupić produkt, który według informacji uzyskanych od chatbota opartego na AI, jest dostępny w najbliższym sklepie. Kiedy jednak klient przybywa do lokalizacji, okazuje się, że produkt nie był dostępny już od kilku dni. Taka niezgodność może wynikać z halucynacji AI, które nieodpowiednio przetworzyło dane o stanie magazynowym.
- Mylna interpretacja zapytań klienta: klient zadaje złożone pytanie dotyczące polityki zwrotów w przypadku produktów elektronicznych. AI, nie rozumiejąc kontekstu lub halucynując na podstawie fragmentarycznych danych, może przekazać informacje dotyczące polityki zwrotów dla zupełnie innej kategorii produktów, np. odzieży, co może prowadzić do frustracji i niezadowolenia klienta.
- Niewłaściwe reagowanie na skargi: w przypadku skargi klienta dotyczącej obsługi, AI może nieprawidłowo zinterpretować emocjonalny ton wiadomości klienta i odpowiedzieć standardowym, niewspółmiernym komunikatem, zamiast eskalować problem do działu obsługi. Takie zachowanie może sprawić, że klient poczuje się ignorowany lub niedoceniony.
Wymienione przykłady pokazują, jak ważne jest, aby systemy AI były nie tylko technicznie zaawansowane, ale także dobrze integrowane z procesami firmy, aktualizowane i monitorowane pod kątem jakości dostarczanych danych. Ponadto, w każdym z tych przypadków, istotne jest, aby istniał prosty i szybki sposób na przełączenie interakcji z AI na człowieka, co może znacznie zwiększyć satysfakcję klienta w przypadku wystąpienia problemów.
Jak zmniejszyć ryzyko?
Aby zmniejszyć ryzyko halucynacji AI, zaleca się wdrażanie modeli języka (LLM), takich jak GPT[2], w sposób przemyślany i ograniczony do obszarów, gdzie ich użycie jest najbezpieczniejsze i najbardziej efektywne. Przykładem może być zastosowanie AI jako wsparcie w mechanizmach wyszukiwania lub chatbotach, gdzie AI nie parafrazuje, lecz wyszukuje i prezentuje konkretne fragmenty tekstu bezpośrednio z wiarygodnych źródeł. Taka metoda wykorzystania AI zapewnia większą dokładność odpowiedzi i minimalizuje ryzyko wprowadzenia klientów w błąd.
Ważne jest, aby firmy podchodziły do wdrażania AI w sposób świadomy i przemyślany, zawsze z naciskiem na jakość i wiarygodność danych, jakie AI ma za zadanie przetwarzać. Wdrożenie sztucznej inteligencji powinno wspierać procesy obsługi klienta, a nie zastępować całkowicie interakcje ludzkie, szczególnie w obszarach, gdzie istotne jest zrozumienie niuansów ludzkiej komunikacji i emocji.
Podsumowując, choć AI oferuje znaczące możliwości dla usprawnienia i automatyzacji procesów obsługi klienta, kluczowe jest odpowiednie zarządzanie ryzykiem i implementacja narzędzi w sposób, który rzeczywiście wspiera i ulepsza doświadczenia klientów, a nie stwarza dodatkowe problemy.