ChatGPT wziął internet szturmem i z pewnością jest już najważniejszym technologicznym trendem tego roku. Ciężko jednak nie zauważyć, że sztuczna inteligencja wciąż potrafi kłamać nam w żywe oczy!
Jak działają chatboty?
Z pewnością słyszeliście już, a być może nawet korzystaliście, z narzędzia od OpenAI, czyli słynnego ChatGPT. Mało kto zadaje sobie jednak pytanie, jak to wszystko w ogóle działa. Dlaczego ChatGPT, będący jakby nie patrzeć chatbotem, różni się aż tak mocno od obecnych na rynku od lat wirtualnych konsultantów?
Chatboty jakie znaliście działają na zasadzie systemów regułowych. Oznacza to, że są po prostu dość precyzyjnie zaprogramowane, aby wykonywać konkretną czynność. Najłatwiej określić to w sposób „jeżeli użytkownik powie X odpowiedź brzmi Y”. Jak doskonale wiecie, tego typu oprogramowanie umówi może nam wizytę u lekarza, ale z pewnością nie odpowie na bardziej palące pytania. Zwyczajnie nie wie przecież jak, bo nikt go tak nie zaprogramował.
W okolicach 2018 roku pojawiły się jednak pierwsze eksperymenty z chatbotami opartymi na głębokich sieciach neuronowych. Można je rozumieć jako matematyczne modele, które naśladują sposób działania ludzkiego mózgu. Składają się z wielu warstw połączonych ze sobą sztucznych neuronów, które przesyłają informacje między sobą. To, co sprawia, że głębokie sieci neuronowe są tak wyjątkowe, to ich zdolność do automatycznego wyciągania skomplikowanych wzorców i relacji z danych wejściowych.
Jak przełożyć to na nieco bardziej „ludzki” język? Chatbot oparty na głębokiej sieci neuronowej uczy się samodzielnie. W dodatku, uczy się on dwóch niezwykle ważnych rzeczy – relacji pomiędzy słowami oraz gramatyki. Dzięki temu jest on w stanie rozumieć nasze pytania oraz udzielać na nie unikalnych odpowiedzi. To właśnie ta prawdziwa rewolucja, która sprawia, że ChatGPT jest czymś niesamowicie zaawansowanym.
Jak uczy się ChatGPT?
No dobrze, wiemy już na jakiej zasadzie działa ChatGPT. No, a raczej znamy absolutne podstawy, konkretne szczegóły techniczne przyprawią każdego o zawroty głowy i jest to raczej temat na doktoryzację a nie na taki artykuł. Tak czy inaczej, przejdźmy do kolejnego ważnego szczegółu – skąd sztuczna inteligencja w ogóle się uczy?
Nawet najlepsza sieć neuronowa nie stworzy czegoś z niczego. To system dość kreatywny, ale całkowicie odtwórczy. Istnieją dwa główne rodzaje uczenia maszynowego – nadzorowane i nienadzorowane.
Te drugie jest dość proste - algorytm jest trenowany na podstawie danych wejściowych bez wcześniej oznaczonych etykiet lub wyjść. Polega więc ono na samodzielnym wyodrębnianiu struktur, wzorców lub cech z danych bez żadnej informacji zwrotnej na temat poprawności czy celu. Głównym celem uczenia nienadzorowanego jest odkrycie ukrytych zależności w danych i ich poprawne grupowanie. Oczywiście, w przypadku chatbotów nie ma to zupełnie sensu.
OpenAI postawiło więc na uczenie nadzorowane i dokładnie w ten sposób uczyło ChatGPT. to podejście, w którym model jest uczony na podstawie danych wejściowych wraz z odpowiadającymi im oznaczonymi danymi wyjściowymi. W tym rodzaju uczenia maszynowego istnieje relacja nadzoru między danymi wejściowymi a oczekiwanymi wyjściami, co pozwala algorytmowi nauczyć się przewidywać odpowiednie wyjście dla nowych, nieznanych danych. Dokładnie dlatego ChatGPT jest tak wydajny i potrafi zaskoczyć nas celnymi stwierdzeniami.
No dobrze, ale skąd te błędy?
GramTV przedstawia:
Na papierze wszystko brzmi naprawdę ciekawie. Problem pojawia się, kiedy zapytamy ChatGPT o dziesięciu najbardziej znanych Polaków. Wśród osobistości takich jak Lech Wałęsa, Maria Skłodowska-Curie, Stanisław Lem czy Jan Paweł Drugi na liście znalazł się też Karol Wojtyła i John Paul Getty. Zaraz, co? O ile Getty faktycznie miał polskie korzenie, to rozdwojenie Wojtyły i jego alter ego może wydawać się dziwne.
Jeśli poszukamy nieco głębiej to szybko odkryjemy, że ChatGPT nie ma żadnych skrupułów i potrafi kłamać nam w żywe oczy! Internauci codziennie wymieniają się nowymi i całkiem śmiesznymi screenami, takimi jak chociażby imieniny Ahmeda, które rzekomo przypadają w Polsce na 12 listopada. Boleśnie odczuło to również Google – ich chatbot BARD skłamał na żywo podczas swojej oficjalnej zapowiedzi. Dlaczego jednak tak się dzieje?
ChatGPT ma halucynacje!
Co sprawia jednak, że chatboty potrafią kłamać? Chociaż może wydawać się to niesamowicie absurdalne, to prawidłowym terminem nie jest tutaj kłamanie. Są nimi halucynacje! Tak jest – sztuczna inteligencja ma po prostu halucynacje. W dodatku, naprawdę przypominają one to co dzieje się w naszym mózgu.
Celem chatbota jest znalezienie odpowiedzi na dane pytanie. Jeśli akurat jej nie zna, to po prostu będzie próbował ją zmyślić. Zachowa się dokładnie tak, jak uczeń odpytywany przed tablicą. Zrobi to jednak w sposób nieco odmienny niż człowiek – odpowiedzi będzie szukał w sposób statystyczny. Po prostu, poruszając się bardzo odległymi ścieżkami, będzie próbował ustalić, co będzie najbliższe semantycznie.
Sposób ten jest dość skuteczny, ale tak naprawdę, niezwykle niebezpieczny. Przede wszystkim, fałszywe odpowiedzi podawane przez ChatGPT będą łudząco podobne do tych prawdziwych. Dość ciężko odróżnić je zatem od tych prawdziwych. Obecnie, to bez wątpienia największy problem z chatbotami.
Jak temu zaradzić? Niestety, nie ma tutaj żadnej drogi na skróty. Potrzebne jest więcej danych i jeszcze więcej treningu. Bardzo pomocne są też uwagi użytkowników, którzy mogą nauczyć ChatGPT wielu rzeczy. Problem jednak w tym, że nie ma pewności, czy uczą oni poprawnie.
Sztuczna inteligencja od OpenAI przyzna nam nawet rację, jeśli wystarczająco dużo powiemy, że dwa plus dwa równa się pięć. Oczywiście, wcale się tego nie nauczy. To celowy zabieg mający na celu „uprzyjemnić” nasze doświadczenie. Kiedy więc nasze uwagi faktycznie są brane do serca? Cóż, tego niestety na ten moment absolutnie nie wiadomo. W innym wypadku z pewnością szybko pojawiliby się e-wandale, a chat zostałby w najlepszym wypadku strasznym rasistą.
Wystarczy polecić, by napisał np. "pomidor", jeżeli nie zna odpowiedzi na pytanie - to działa.
Swoją drogą osobiście uważam, że określenie "halucynacje" jest zupełnie nietrafne. AI po prostu zmyśla jak małe dziecko, gdy czegoś nie wie, i robi to całkiem podobnie jak człowiek. Uczeń, który udaje że coś wie przy tablicy, również próbuje udzielić najbardziej prawdopodobnych odpowiedzi, które będą najbardziej zbliżone do wymaganej, od niego, odpowiedzi.
Misiulo
Gramowicz
11/05/2023 11:42
Chat zmyśla oraz miewa halucynacje no bo po prostu już tak ma. A w jaki sposób możemy go czagos nauczyć? Nie wiadomo! Oto podsumowanie treści powyższego artykułu.