Sztuczna inteligencja generuje teksty o takiej samej wartości, jak te tworzone przez ludzi?

Mężczyzna pracujący na koputerze
Mężczyzna pracujący na koputerze
Fot. Unsplash

Model językowy w trzy sekundy nauczy się sposobu mówienia danej osoby, a potem wypowie dowolny komunikat jej głosem i z jej emocjami. Najprawdopodobniej w takim kierunku rozwiną się algorytmy generujące dziś komunikaty tekstowe o walorach równoznacznych z tymi, które tworzą ludzie.

Choć technologia przynosi wiele korzyści, związanych np. z łatwiejszą komunikacją ze sztuczną inteligencją, to pojawiają się obawy o jej nieetyczne wykorzystanie, np. w cyberatakach czy tworzeniu bardzo wiarygodnych fake newsów. Te ryzyka nie zagrożą jednak rozwojowi takich rozwiązań i ich wdrażaniu na masową skalę. Rynek technologii przetwarzania języka naturalnego do końca dekady wzrośnie niemal dwudziestokrotnie.

– Fenomen ChatGPT jest taki, że po raz pierwszy tak zaawansowana technologia do generowania tekstu trafiła do mainstreamu. Stała się wręcz viralem i trafiła do bardzo szerokiego grona odbiorców z różnych dziedzin oraz z różnego poziomu zaawansowania technologicznego – ocenia w rozmowie z agencją Newseria Innowacje Kuba Białczyk, założyciel i przewodniczący Klubu Naukowego Koźmiński AI na Akademii Leona Koźmińskiego w Warszawie.

ChatGPT jest platformą sztucznej inteligencji mogącą generować tekst o wartości porównywalnej z takim, który stworzyłby człowiek. Rozwiązanie projektowane było z myślą o umożliwieniu prowadzenia rozmowy ze sztuczną inteligencją. Rozwijana przez ostatnich pięć lat platforma opiera się na modelu obejmującym już 175 mld parametrów.

– Dzięki temu narzędziu pracownicy mogą się nauczyć współpracować ze sztuczną inteligencją podczas swoich codziennych zadań w pracy, przez co mogą osiągnąć dużo większą efektywność, zwiększyć swoją produktywność, a także pomóc swoim firmom wznieść się na wyższy poziom efektywności. Coraz bardziej otwarty dostęp i coraz większa demokratyzacja takich technologii sprawi, że osoby, które nie są specjalistami z dziedziny sztucznej inteligencji czy uczenia maszynowego, będą mogły tworzyć produkty technologiczne oparte właśnie na takich zaawansowanych technologiach jak ChatGPT i wypuszczać je na rynek – mówi Kuba Białczyk.

Rozwiązanie jest obecnie w fazie testowania i w związku z tym udostępniane jest bezpłatnie. Twórca chatbota, firma OpenAI, stworzył listę oczekujących na produkt ChatGPT Professional, eksperymentalną, płatną wersję, zapewniającą szybsze działanie, większą przepustowość i możliwość obsłużenia dwukrotnie większej liczby zapytań.

Twórcy nie mówią też ostatniego słowa w kwestii funkcjonalności ChatGPT. Są w trakcie opracowywania algorytmów mogących odpowiadać już nie tylko pisemnie, lecz również ludzkim głosem. Choć korzyści związane z używaniem tego rozwiązania są oczywiste, pojawiają się również wątpliwości i zagrożenia.

– Jednym z zagrożeń, które wiąże się z używaniem ChatGPT na taką skalę, jest generowana treść, która nie zawsze jest prawdziwa, i bardzo często ciężko jest ją odróżnić od nieprawdziwej. Użytkownicy potem publikują te treści dalej w internecie lub wykorzystują w swojej pracy, nie wiedząc, że nie są one prawdziwe. Używanie rozwiązania na taką skalę w mass mediach może prowadzić do ogromnego problemu z fake newsami i z ich detekcją – zauważa Kamil Kinastowski z Akademii Leona Koźmińskiego.

3 sekundy aby nauczyć się sposobu, w jaki dana osoba mówi

Technologia stojąca za modułem generowania mowy, VALL-E, jest w stanie w zaledwie trzy sekundy nauczyć się sposobu, w jaki dana osoba mówi. W połączeniu z możliwością tworzenia obrazów rozwiązanie będzie w stanie pomóc na przykład w stworzeniu realistycznie wyglądającej wypowiedzi polityka, jednak w rzeczywistości będzie to fake news.

Eksperci WithSecure podkreślają także ryzyko, jakim jest wykorzystywanie tych narzędzi do różnego rodzaju cyberataków. Seria przeprowadzonych przez nich eksperymentów wskazała, że modele językowe wykorzystujące sztuczną inteligencję zwiększają skuteczność komunikacji będącej częścią ataku. Wraz z doskonaleniem takich narzędzi coraz trudniej będzie odróżnić fałszywą treść maila od nadawcy podszywającego się np. od banku czy dostawcy mediów. Z kolei operatorzy platform społecznościowych będą mieli większe trudności, by rozpoznać obraźliwe treści tworzone przez boty. Eksperci WithSecure prognozują więc, że cyberprzestępcy będą w nieprzewidywalny sposób rozwijać możliwości, jakie dają duże modele językowe.

Mimo kontrowersji prawdopodobnie takie rozwiązania staną się jednym z wiodących trendów technologicznych. Świadczyć może o tym chociażby fakt, że strategicznym inwestorem w przypadku ChatGPT jest Microsoft. Informatyczny gigant ma 49 proc. udziałów w OpenAI.

– Wielkoskalowe modele językowe wejdą do naszego codziennego świata. Microsoft będzie implementował te modele językowe do swoich produktów, po czym inne firmy również będą chciały podobny sukces osiągnąć, implementując je u siebie. Na sto procent tego typu produkty będą dostępne na rynku. Pytanie tylko, w jaki sposób będą używane – zastanawia się Kamil Kinastowski, założyciel i wiceprzewodniczący koła naukowego Koźmiński AI.

Według Precedence Research światowy rynek technologii przetwarzania języka naturalnego wypracował w 2021 roku przychody wynoszące 18,6 mld dol. Do 2030 roku ma to już być 361,6 mld dol.

O technologii stojącej za rozwiązaniami takimi jak ChatGPT oraz o szansach i ryzykach z nimi związanymi rozmawiali uczestnicy styczniowego spotkania Thursday Gathering. Tym razem wydarzenie to odbyło się pod hasłem „Who am AI?”. Organizatorem cotygodniowych spotkań społeczności innowatorów w warszawskim Varso jest Fundacja Venture Café Warsaw.

Źródło: Newseria.pl

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *