Skip to main content

Gościem podcastu „O reklamie w internecie: dla kogo, za ile i po co?” był Mateusz Chrobok, pasjonat nowych technologii, który lubi zerkać pod maskę systemów bezpieczeństwa i sztucznej inteligencji. Porozmawialiśmy o możliwościach, wadach, zaletach i przyszłości rozwiązania, jakim jest ChatGPT.

ChatGPT a specjaliści

Słuchaj rozmowy na YouTube lub wybierz inne kanały dostępne na stronie podcast o marketingu internetowym. Poniżej znajdziesz też transkrypcję rozmowy.

Natalia Siuta: Czy biorąc pod uwagę rosnącą ostatnio popularność chatuGPT, na przykład copywriterzy albo programiści powinni się obawiać, że no niedługo przyjdzie im tak przymusowo się przebranżowić? A może nie taki diabeł straszny jak go malują?

Mateusz Chrobok: Ja mam wrażenie, że to będzie trochę tak. Z jednej strony fałszywy pieniądz będzie usuwał z rynku dobry pieniądz. To znaczy, że będzie mnóstwo treści, które będą w pewien sposób takie same. Trzeba mieć świadomość, że chatGPT tworzy rzeczy, które są statystycznie najbardziej popularne albo najczęściej trafiają.

Coraz bardziej w cenie będą copywriterzy, którzy będą mieli wiedzę dziedzinową. Będą w stanie się wypowiedzieć na pewne specyficzne tematy. Natomiast ci, tacy ogólni pewnie i tak będą lepsi niż chatGPT, który z mojej perspektywy na razie ma określoną jakość. Ta jakość będzie pewnie wystarczająca dla takich średnich rozwiązań.

Słabi copywriterzy będą mieli coraz mniej roboty. Mam tu na myśli takich, którzy są na początku swojej ścieżki albo nie tworzą najlepszych rzeczy. Pewnie to, co statystycznie jest w stanie wytworzyć model, będzie po prostu tańsze i szybsze. Natomiast, ci, którzy są specjalistami dalej będą w cenie moim zdaniem. I to spowoduje, osoby, które nie znajdą pracy w copywritingu, pewnie przejdą w inny wszechświat, na przykład w prompt engineering.

Jak odróżnić chatGPT od słabego copywritera?

Piotr Polok: Poruszyłeś temat, który bardzo mnie dotyczy. Sam oferuję copywriting i zastanawiam się, jak odróżnić słabego copywritera od chatuGPT. Nie ma chyba jeszcze takich rozwiązań, które pokażą, że dany tekst jest generowany w 100% przez AI albo copywritera. Spotkałem się nawet z sytuacją, gdzie tekst napisany przez copywritera był potraktowany jako AI.

M.C: Tu przede wszystkim problemem jest to, że w tej chwili nie ma oznaczenia, tak jak są znaki wodne umieszczane na obrazkach. Są już w badaniach propozycje tego, żeby robić znaki wodne w tekście. Badania pokazują bardzo wysoką precyzję, bo aż 97% skuteczności.

Firma OpenAI wprowadziła do poprzedniej wersji chatu taki mechanizm, jednak miał on absolutnie tragiczną skuteczność. Mylił się prawie że częściej. Jeżeli dobrze pamiętam to było koło 60%, co powoduje, że rzut monetą jest całkiem niezłym rozwiązaniem w stosunku do tego.

Natomiast jestem przekonany, że zaraz pojawią się mechanizmy dodawania znaków wodnych. I to będzie tak z kilku powodów. Po pierwsze ważne będzie to, żebyśmy my jako ludzie sobie dali radę rozpoznać, co jest prawdziwe. Z deepfake’ami mamy coraz większy problem oraz z tekstami, tak jak mówisz.

Po drugie Google lub inne mechanizmy, które będą związane z SEO, będą chciały rozpoznać, czy to naprawdę był człowiek. I też będą chciały to ocenić. To jak to w fizyce – akcja i reakcja. Spodziewam się, że metod, tak jak tych, które wyłapują dezinformację, tak te, które będą łapały automatyczne teksty, będzie coraz więcej.

Posłuchaj podcastu „O reklamie w internecie: dla kogo, za ile i po co?”:

Podejście do ChatGPT

P.P: Ciekawi mnie podejście samego Google do tematu. Jak wiemy, stawiają na wysokiej jakości treść i na pomoc użytkownikom. Tutaj dostajemy na pierwszy rzut tekst generowany przez sztuczną inteligencję. Znowu ciężko jest powiedzieć stworzył to chatGPT, czy to jest słaby albo nawet przeciętny copywriter. Nawet platformach dla copywriterów na pojawiają się już zlecenia, które nie tylko dotyczą stworzenia nowych treści, ale także tych przygotowanych przez sztuczną inteligencję.

M.C: O kurczę, no czyli transformata. Bo, jakby…

Dwa zasadnicze niebezpieczeństwa

P.P: Tylko czy bezpieczna?

M.C: Czy bezpieczna? Ja myślę, że tutaj są dwa zasadnicze niebezpieczeństwa. Pierwsze jest takie, że w modelach językowych, LLM’ach (Large Language Models), nie mamy bezpośredniego powiązania pomiędzy tym, co jest źródłem, faktami, które jest brane do uczenia modelu, a tym co jest na końcu. Stąd mamy do czynienia ze zjawiskiem, jakim jest halucynowanie. Mówimy, że tak jest, ale to nie do końca jest poparte w dowodach. Nawet to, co było na wejściu, jest czymś zupełnie innym, więc nie ma połączenia tego, co jest wywnioskowane, ze źródłami.

Często dochodzi do tego, że to jest nieprawdziwe, dlatego do tego jako ludzie jesteśmy potrzebni. Chociaż powstają metody, które za chwilę będą związane z knowledge graphem, czyli takim grafem łączącym źródło z efektem. I one pewnie prędzej czy później w takich modelach pojawią się, żeby powiedzieć: „Hej, dlaczego tak uważam”. To jest taki mega trend.

Druga rzecz, jak wytworzysz sobie coś takiego ogólnego, np: „Pięć sposobów na najlepszy śląski obiad”. Otrzymasz rzeczy statystycznie najbardziej prawdopodobne. Jednak w takich odpowiedziach często brakuje wiedzy eksperckiej i jest to bardzo podatne na ataki statystyczne. I tu jest ten drugi ważny element. Copywriterzy posiadając taką ogólną umiejętność, która jest związana z weryfikowaniem faktów, i z tym, że są umiejscowieni w kulturze, będą w stanie to poprawiać. Dla mnie to jest trochę symbioza, bo masz korpus, który potrzebujesz dostosować. On pewnie przyspieszy pracę, ale na razie bez człowieka w tej pętli wytwarzania, nie do końca sobie wyobrażam, że można wypuścić tekst i z czystym sercem się o nic nie bać.

Copywriter, ChatGPT, a może obie opcje?

P.P: Według mnie to trochę podwójna robota. Jeżeli zlecę tekst copywriterowi, który wykona mi brief marketingowy albo tworzy tekst na zasadzie wsadu dostarczonego przez specjalistę, to potem wystarczy to sprawdzić i opublikować. Na ten moment, wygląda tak, że mamy tekst z AI, musimy go zweryfikować, a następnie go poprawić. Później, po raz kolejny powinna go zweryfikować osoba, która zamówiła ten tekst. Ostatecznie albo zapłacimy za to więcej albo poświęcimy więcej czasu.

M.C: To jest fajne, bo pokazuje funkcję celu. Jak potrzebujesz coś szybko i niech sobie leci, to odpalasz chatGPT i w siedem minut zmieścisz się razem z publikacją. W sytuacji, gdy ustawiasz sobie poprzeczkę, co do jakości, to na obecny stan techniki, to może co najwyżej jeden z elementów wytwarzania.

Moim zdaniem, ten element douczania będzie coraz istotniejszy. Te wszystkie modele i metody uczenia maszynowego, służą do tego, żeby zebrać wiedzę ekspercką i potem ją wykorzystać. Oczywiście nie tak dobrze jak eksperci, ale najlepiej jak się da. I teraz wyobraź sobie, że będziesz miał copywriterów albo style, które są związane z tym, że tworzą w pewien sposób. Podobnie jak na początku przy konwolucyjnych sieciach neuronowych było coś takiego jak transfer learning. Wiązało się to z tym, że robiłeś sobie selfie i mogłeś je zrobić w stylu impresjonistycznym lub innym. Ja słabo znam się na sztuce, ale mogłeś sobie nadać styl.

Kim jest, jak pracuje, co musi umieć? Piotrek Polok opowiada o pracy copywritera:

Kolejne elementy

Kolejnym elementem będzie styl copywritera albo inne, które będziesz w stanie nadać do tekstu. I to będzie super. Ja wyobrażam sobie, że to jest ten taki element, którego na chwilę obecną brakuje. Jeszcze słabo tam z emocjami i z rozpoznawaniem. A jakbyśmy teraz mogli jeszcze to nadać i mieć taki suwaczek: teraz dramatyzuj…i jedziesz.

P.P: Zastanawiam się nad tym co powiedziałeś. Czy to nie jest trochę tak, że wszyscy będziemy mieli tę samą bazę, podstawę, a potem będziemy wykorzystywać swoją kreatywność do tego by rozbudować to, co dostaliśmy?

M.C: Kreatywność ludzka jest w pewien sposób niezastąpiona. Bo skąd bierze się twoja kreatywność? To jako takie złożenie bardzo wielu doświadczeń twojego życia, podróży, różnych stymulantów, na które w swoim życiu napotkasz. I te stymulanty tworzą sieć i odpowiedź twojego organizmu.

Teraz to, co się dzieje w sytuacji, kiedy mamy modele Midjourney, DALLE, GPT i inne, one są bardzo silnie ograniczone, co do zbioru uczącego. Jest firma, która mówi to weźmiemy, a tego to nie, a to weźmiemy, a to sobie jeszcze jakoś tam przemoderujemy. W związku z tym, otrzymujesz bańkę informacyjną, którą musisz zaakceptować. Firma mówi, że to jest dobre, a to złe. Ostatecznie wyszukiwarki są bańkami. Te modele, które pewnie będą wykorzystywane coraz bardziej do pochłaniania i przetwarzania informacji, też są bańkami.

Zalety rozwiązania

N.S: Ja mam tak, że żyję trochę bardziej analogowo. Gdyby nie ta rozmowa, to nie wiedziałabym kompletnie nic o chatGPT. Testowałam go parę dni temu, przygotowując się do tej rozmowy. Powiem wam, że jestem w stanie zrozumieć, dlaczego ktoś może się tym zachłysnąć. Dopiero co napisałam tekst na prosty temat. Artykuł był o tym, jak namówić dzieci, żeby chciały iść do przedszkola.

Wpisywałam sobie właśnie tego typu hasła i zapytania do chatuGPT, a potem zaczęłam się zastanawiać. No dobra, to taki potencjalny klient może pomyśleć: „Okej, ja mam oryginalnego Worda, to sprawdźmy może czy tam wyskoczy plagiat, czy nie”. I okazywało się, że nawet jak wpisywałam jakieś konkretne fragmenty, to ten plagiat nie wyskakiwał. To już jest coś, co może kogoś przekonać, że to jest fajne, oryginalne i tańsze.

Łapanie plagiatów

M.C: I szybsze. Systemy do łapania plagiatów działają tak, że mierzą sobie pewną odległość pomiędzy tekstami źródłowymi, a tym co jest wynikiem. Tu mamy transformaty i tych transformat jest tak dużo, że plagiat nie wychodzi. Jednak to tak, jak z różnymi tymi modelami transferowymi. Możecie sobie znaleźć synonimy i poprzestawiać zdania. Korzystaliście z Grammarly?

N.S: Ja nie.

M.C: To jest taki AI, który służy do tego, żeby poprawiać teksty w języku angielskim. Ja korzystam, bo jestem taki średni, a jak trzeba napisać coś ważnego, to wiecie. Program daje taką możliwość, że można zrobić na przykład rephrase zdania. Tutaj jest w trybie biernym, a lepiej to trafia do ludzi w trybie aktywnym, więc sugerują pewne rozwiązania. To powoduje, że tak naprawdę nie musisz być super, hiper ekspertem, żeby ładnie pisać, co jest mega wartością. Poza tym, oni o tyle rozwinęli swój model, że możesz sobie wybrać czy to jest mail biznesowy, czy piszesz do kolegi. Czy chcesz wykazać, że tam jesteś szczęśliwy, czy jesteś pewny, czy coś innego. To jest super, bo to ta kolejna warstwa, którą w tekście ciężko jest wyrazić.

Tłumacze to kolejna profesja…

P.P: Wydaje mi się, że tłumacze to jest kolejna profesja, która może mieć problem przez chatGPT. Mówimy o copywriterach i o grafikach, tak i tłumacze mogą być coraz mniej potrzebni.

M.C: Tak. Tłumacze będą absolutnie kolejnym elementem. Jako ludzie mamy taką zdolność, że się domyślamy. Nawet jak nie znamy jakiegoś słówka, łatwiej nam łapać 80% sensu tego, co się pojawia przy tłumaczeniu. Ja uważam, języki, które są różnorodne pewnie będą coraz bardziej „commodity”. W sensie będą pewnie ludzie, którzy będą specjalistami w tłumaczeniach rzeczy urzędowych specjalistycznych i to będzie niezbędne. Jednak podstawowa wartość tłumaczenia, od czasu, kiedy pojawiło się Google Translate, potem DeepL, to w tej chwili każdy to robi na własną rękę. Czasami lepiej, czasami gorzej i to też jest komodytyzacja. Ja nie wiem, czy to jest dobre polskie słowo, wybaczcie mi.

To się staje taką naturalną częścią. Korzystamy z tego i bierzemy za pewnik, ale oczywiście nie ufamy do końca.  Na początku były ataki na Google Translate, ponieważ można było wejść w tryb reinforce learning, czyli ja ci mówię, co jest dobre. Użytkownicy zostawiali sobie „Easter Egg”, takie żarty w tym tłumaczeniu. Tam był przykład „babcia piekła ciasteczka”, a wystarczająco dużo osób zagłosowało, że właściwa forma to jest „grandmother hells cookies”. Tłumacząc literalnie: „Ciapcia piekła ciasteczka”. Można zostawić takie pułapki. Pewnie każdy normalny człowiek, który trochę angielski zna, da sobie z tym radę. No i wyobraźcie sobie teraz, że ludzie przestaną się uczyć języków.

Błędy w ChatGPT

N.S: Jakie najczęstsze błędy zauważyłeś testując chatGPT? Mnie się rzucało w oczy to, że odpowiedzi były mało kreatywne i czasami „na okrętkę”. Jak wpisałam słowo kluczowe „biżuteria miedziana”, to dostałam odpowiedź, że biżuteria miedziana, to jest biżuteria wykonana z miedzi.

M.C: To wynika trochę z konstrukcji tego jak te modele działają. To, co się tam dzieje, na początku to jest taki element, który jest związany z uwagą. To znaczy, jak zaczynasz rozmawiać z kimś, to zastanawiasz się co jest istotne. Na przykład: „Bardzo lubię do CIEBIE mówić” albo „Bardzo lubię do ciebie MÓWIĆ”. To będzie dla nas zupełnie inne stwierdzenie.

Jak działają modele?

I te modele muszą załapać najpierw, co jest kwintesencją i o co chodzi. Ty miałaś biżuterię miedzianą. Musimy znaleźć sobie teraz w przestrzeni wielowymiarowej, co jest najbliżej biżuterii miedzianej. I żeby wam uzmysłowić jak one wewnątrz działają. One tak naprawdę zgadują tylko kolejne tokeny, znaczy kolejne słowo. Biorąc pod uwagę to, co jest najbliżej. I w tej przestrzeni uczącej pewnie wyszło im z tych danych wyjściowych, że biżuteria miedziana – uwaga zmyślam teraz, nie znam się na tym – była wytworzona już w VI wieku n.e przez plemiona, które gdzieś tam żyły.

Im bardziej zawęzisz tę przestrzeń poszukiwania i zaczniesz mówić: „interesuje mnie biżuteria miedziana, w której były dodawane kamienie.” No to a! dobra, teraz znajduję się w innym miejscu przestrzeni, w którym rozmawiamy jeszcze o kamieniach. To powoduje, że następne słowo, które ja będę zgadywać to będzie już coś zupełnie innego. Istotne jest jak najbardziej zawężanie przy rozmowach, w ogóle z tego typu modelami, tego czego ty oczekujesz. One znajdują się w zupełnie innym miejscu w tej wielowymiarowej przestrzeni i pewnie dadzą ci lepsze odpowiedzi.

Precyzyjne pytanie, precyzyjna odpowiedź?

P.P: Rozumiem to tak, że im bardziej precyzyjne pytanie, tym bardziej precyzyjna odpowiedź. Trochę przeciwieństwo Google. Wyszukiwarce wpiszę coś ogólnego, to dostanę ogólniki i szczegóły. W chatGPT muszę się skupić na tym, o czym jeszcze nic nie wiem i zadać precyzyjne pytanie.

M.C: Moim zdaniem to też przyjdzie. To, co w tej chwili dzieje się w Google, czyli co wpisujesz to jest jakby jeden kawałek. Drugi kawałek, to jest świadomość tego jak Google cię zna i wie, że ty jesteś Piotrek. Zazwyczaj szukasz informacji, jak zrobić sok pomarańczowy w 100%, a nie z koncentratu. I w związku z tym to, co masz w odpowiedziach, jest związane z tym, że ty jesteś Piotrek i tego wyszukujesz.

Personalizacja

P.P: Taka personalizacja.

M.C: Absolutnie. Część personalizacji, część wyszukiwania i jeszcze część tego, co inni uważają. Robisz sobie takie trzy składania w przestrzeni i wychodzą ci jakieś wyniki. W tej chwili języki modelowe nie mają jeszcze takiego dostosowania do użytkownika, w sensie jest na tyle mało danych. My jako my wymieniliśmy tak naprawdę mnóstwo informacji i się nimi podzieliliśmy. Natomiast modele jeszcze nie mają dobrych profili nas, jako użytkowników. Wydaje mi się, że to będzie kolejnym elementem, na który będą bardzo silnie zwracać uwagę. To będzie powodowało, że w tej przestrzeni, gdzie oni szukają tych kolejnych słów, będą coraz dokładniejsi.

Tak jak porównujecie sobie Google’a tam z DuckDuckGo z Yandexami czy Ecosia’mi, to część ludzi, z którymi ja rozmawiam, wiem, że to jest mały statystyczny kawałek, mówi mi: „Ja nie korzystam z czegoś innego, niż Google, bo daje mi gorsze wyniki”. No tak, Google zebrało o tobie o wiele więcej danych. Dlatego to, co ci przekaże będzie prawdopodobnie o wiele lepsze niż te wyszukiwarki, które zupełnie nie zbierają o tobie danych. Teraz trzeba się godzić, że albo będziesz szukał dłużej, albo my jako istoty ludzkie, które naturalnie ograniczają energię, czyli innymi słowy, są leniwe, skorzystamy z czegoś, co nas będzie bardziej profilować.

Czy na każde pytanie otrzymamy odpowiedź?

N.S: Apropo tego, że Google ma jednak większe zasoby i znalazł o nas więcej informacji. Piotrek siedząc koło mnie, mówi, a wpisz pytanie kim jest Piotr Polok. ChatGPT nie wiedział i okazało się, że ograniczenie pojawiło się już na początku.

P.P: A Google wie.

M.C: A Google wie. To też wynika z tego, że jak sobie pomyślicie nad tym, dlaczego Piotrek się tam nie pojawił. Nadawana jest pewna waga informacjom, które są informacjami wejściowymi. Rzeczy z Wikipedii są wysoko w wynikach wyszukiwania, bo dużo innych informacji jest z tym powiązanych. Ja też się tam nie pojawiam. Natomiast to, że pewnie w czasie będzie tych powiązań więcej i będą te modele coraz szersze.

Ja bym sobie to wyobraził w takiej formie, że to będą po prostu coraz większe pojemniki, w które będziemy w stanie wlać coraz więcej wiedzy. Im więcej tej wiedzy wlejemy, tym bardziej te rzeczy, które nie są najbardziej popularne i co jest niszowe, będzie się pojawiało. Nie da się tego wszystkiego wlać. Mamy pojemnik, który się przelewa się, więc trzeba powiedzieć: „Dobra, więcej nie douczamy, więcej nie zjemy, ziemniaczki zostaw.”

Wyobrażam sobie, że te modele będą coraz większe. W tej chwili są super komputery, które dla firmy AI tworzy Microsoft i są oni do przodu, jeżeli chodzi o zapisywanie i wykorzystywanie tej wiedzy. To będzie ewoluowało i pewnie będą coraz bardziej dedykowane modele.

Chat to po prostu szybsze Google?

P.P: Wiem, że to bardzo abstrakcyjne pytanie, ale czy to nie będzie trochę tak, że chatGPT to w przyszłości będzie szybsze Google? To znaczy wszystko, to co jest w Google mamy teraz w chacie. Zadajemy pytanie i dostajemy od razu odpowiedź. Rozmawiałem z jednym ze specjalistów SEO, który powiedział mi, że strona internetowa została zaflirtowana przez to, że treść była tworzona przez sztuczną inteligencję. Co się potem okazało, teksty były bardzo zbliżone do innych tekstów z tej samej branży. Teraz przekładając treść z Google do chatuGPT – jeżeli nie poświęcimy czasu na weryfikację, to nawet nie będziemy wiedzieć, że zduplikowaliśmy treść, o której myśleliśmy, że jest unikalna.

M.C: To jest bardzo ciekawy problem. Jedną bańką informacyjną jest Google, więc jak poszukasz sobie tego samego tekstu, to może być tak, że Google go wyfiltruje i stwierdzisz tak: „A dobra, dalej nie szukam tam, kto zagląda na drugą stronę”. Nie będziesz w stanie tego zweryfikować. Z drugiej strony jest bardzo trudno, żeby określić element oryginalności. Skąd wiesz, że jakiś element jest oryginalny. Z wycieku z Yandexu, który starał się bardzo kopiować Google’a, wynika, że rzeczy, które są oryginalne, mają u nas o wiele wyższe wyniki.

Oryginalne – co to oznacza?

Ale co to oznacza oryginalne? Jak ja tak sobie wyobrażam to po inżyniersku, że to są nietypowe połączenia słów. Tak jak mówimy teraz o modelu statystycznym dla języków. Są to typowe połączenia pomiędzy słowami, które tworzą nam zdanie. To taka miara oryginalności będzie z takimi właśnie nietypowymi elementami. Ja jestem na przykład wielkim fanem Pratchetta i to, jakie on czasami tworzy konstrukcje, tworząc swoją narrację, są na tyle nieoczywiste, że one mnie pukają w umysł i mówię: „Aha! to jest dobre, na to bym nie wpadł”.

Każdy z nas ma jakąś miarę oryginalności. Natomiast wyobrażam sobie, że będziemy mieli takie bagienko rzeczy, które są typowe i normalne. Można było się domyśleć i rzeczy, które są oryginalne, które są zupełnie inne. To też jest forma do nadużyć, bo teraz mówisz o kwiecistym katamaranie, który będzie kawitował kulturalnie i zupełnie nie ma żadnego sensu, ale pewnie wysoce zostanie oceniony jako coś, co jest oryginalne.

P.P: I unikalne, no właśnie.

Podłączenie do internetu

N.S: To jest też ciekawe, że chatGPT nie jest podłączony do internetu na stał. Pytanie jak często musi być aktualizowany, żeby jednak nadążał za tym światem, który pędzi.

M.C: To jest fajne pytanie. ChatGPT, a raczej sam model GPT, który jest tam podstawą próbowano podłączyć do Bing’a. Teraz problem polega na tym, że jak podłączasz coś, do czegoś co jest słabo moderowane, to efekty są dosyć słabe. Znajdywało się tam bardzo dużo rzeczy, które nie zostały przefiltrowane i ocenione. Dlatego to, co jak tam mówią ludzie, którzy tworzą modele uczenia maszynowego, przepraszam za mój francuski „shit in, shit out”. To co nauczysz na wejściu, jak będzie po prostu słabej jakości, to na wyjściu też dostaniesz słabej jakości.

To nie są tanie rzeczy

I to jest problem. Szacunki, co do tego, ile kosztuje przeuczenie takiego modelu to są miliony czy dziesiątki milionów, w zależności od tego jaki on jest duży. To nie są tanie rzeczy, ale to nie da się zrobić tak, że teraz będziesz model codziennie przeuczał. Na razie, po pierwsze to jest za drogie, po drugie trzeba go jeszcze przetestować i sprawdzić, jak reaguje. Jeszcze nie jesteśmy w tym etapie ewolucji, że możemy tak szybko te modele robić.

Zostaje nam ta druga metoda, w której przekazujemy jakieś informacje do modelu i on na żywo łapie ten kontekst i się uczy. To tak ładnie branżowo nazywa się few-shot learning, czyli zadajecie pytanie tam na chacie i on od razu wam odpowiada. To jest zero-shot, w sensie: „Hej, powiedz mi jaki tam jest przepis na najlepszy śląski obiad”.  Jak mu podasz kontekst, mówi: „Słuchaj, najbardziej popularnymi potrawami na śląsku są…coś tam…” i teraz dodajecie: „Chciałbym żebyś mi odpowiedział w jaki sposób przyrządzić śląski obiad, biorąc pod uwagę, że coś tam, coś tam”.

Im więcej dasz narracji, kontekstu i wszystkiego, co jest z tym związane, tym lepsze będą te odpowiedzi. W ten sposób my jako ludzie, korzystając z tych metod, jesteśmy w stanie lepiej wycisnąć wszystko, co z tych modeli jest do wyciśnięcia. Mimo tego, że one nie są podłączone do internetu.

Weryfikowanie informacji z ChatuGPT

P.P: To ja się zastanawiam teraz nad tym, jak są weryfikowane te informacje. Może być taka sytuacja, w przypadku „Easter egg”, o którym wspomniałeś. Ktoś zacznie wpisywać inne imię, na przykład Stanisław Mickiewicz, a później chatGPT przekaże to dalej. Użytkownik tego nie zweryfikuje i okaże się, że mamy Stanisława Mickiewicza.

M.C: No zobacz, jakbyśmy teraz byli zupełnie złośliwymi osobami, które przeprowadzą taki atak, nazywa się on „well poisoning”. Powiedzmy, że istnieje w ogólnodostępnym internecie 100 000 stron, na których masz połączenie Adam Mickiewicz. I teraz jeżeli to jest brane pod uwagę do uczenia tego modelu, to masz to z mocą, np. 100 000, czyli Wikipedia jeszcze pomnożona razy…

P.P: Na zasadzie cytowania.

M.C: Dokładnie, na zasadzie cytowania. To bardzo często występuje i teraz musiałbyś mieć większą moc, demokratyzując proces uczenia, żeby powiedzieć „Stanisław Mickiewicz”. Teraz model w kolejnej wersji musiałby się tego nauczyć i wziąć to jako pewnik. Nie znaczy, że to się nie będzie się działo. Ja wierzę, że będą firmy, które celowo będą starały się zostawić takie rzeczy, żeby wykreować tę bańkę informacyjną i wpłynąć na rzeczy, które dalej będą wykluczone.

P.P: To też trochę niebezpieczne.

M.C: Absolutnie, to tak jak z pisaniem podręczników, zwycięzcy piszą historię.

Zmiany w chatGPT na przestrzeni miesięcy

N.S: A jak ty postrzegasz, na przestrzeni paru miesięcy chatGPT, bo on jednak się zmienia. Tu zmieniła się też twoja opinia o nim?

M.C: Ja byłem pod dużym wrażeniem przede wszystkim tego, że oni wypuścili te narzędzia do szerokiej publiczności. O ile LLM’y czy sieci generatywne, które obiły obrazki czy inne rzeczy, były dostępne no to one były bardziej dostępne tak dla ludzi, którzy potrafili to odpalić albo zapłacili za dostęp i tak dalej.

Teraz ta bańka świadomości ludzkiej została przebita przez to, że oni zrobili wielki krok i bardzo dużo zainwestowali, żeby narzędzia były dostępne za darmo. To odpaliło niesamowitą kreatywność, która jest w ludziach, ponieważ zauważyli:”Kurczę, ja to mogę wykorzystać do tego i do tego…”. Z tego oczywiście OpenAI i inne firmy skorzystały, żeby zobaczyć: „Hej, czy to jest ten moment, że my chcemy teraz zainwestować duże pieniądze, bo widzimy, że jest duży rynek”. No i jak to startup, który w tej chwili to już właściwie nie za bardzo można powiedzieć, że jest startupem. Teraz to jest olbrzymia firma zarabiająca pieniądze, bo też zmienili swoje podejście z firmy takiej, non-profit na for-profit, ale to jest inna historia. Zmienili podejście i widzą: „Dobra trzeba w to zainwestować”.

Modele uczenia maszynowego istniały w latach 60

Dostali mnóstwo pieniędzy od Microsoftu, będą przeuczać nowe modele i razem z innymi firmami będą zmieniać naszą rzeczywistość. Z technologią to jest troszkę tak, że modele uczenia maszynowego istniały w latach 60, 80. Tylko wtedy była taka trochę zima, bo komputery były o wiele wolniejsze, a danych było bardzo mało. Teraz dzięki social mediom i takiemu ogólnemu podejściu do dzielenia się, informacji jest tak dużo danych, że mamy czym karmić modele uczenia maszynowego i modele sztucznej inteligencji.

P.P: Wrócę do tego, o czym powiedziałeś na początku. Wypuszczono narzędzie, którym, nie chcę mówić, że ludzie się zachłysnęli, ale pomyśleli, że to jest narzędzie wyczekiwane od wielu lat czekali. Z mojej perspektywy jako copywritera, miałem sytuacje, gdzie klienci rezygnowali z abonamentu 1200 złotych miesięcznie na rzecz OpenAI za 20 dolarów. Jednak klienci po kilku miesiącach wracali, tłumacząc, że teksty na stronę internetową nie do końca są takie, jakich oczekiwali. Pierwsze, o co prosili to poprawę treści wygenerowane przez chat. Odpowiedziałem, że z tym tekstem obecnie będę miał więcej pracy, niż stworzeniem go od nowa nawet w oparciu o materiały, które dostarczyłby klient. Jednak moje pytanie jest inne. Google będzie walczyć z OpenAI czy raczej dostosuje do niego swoją wyszukiwarkę?

M.C: Oj, myślę, że to jest trochę rozmowa o takim rządzie dusz. Prawie że wszyscy Googlują ze względu na to, że to jest największa, najpopularniejsza i dająca najlepsze wyniki przeglądarka, tzn. najbliższa tego, czego oczekujemy. OpenAI w momencie, kiedy uzyskamy tanie informacje to nie będzie trzeba tam wyszukiwać i potem jeszcze klikać, i jeszcze czytać. Będziemy mieli to w podsumowaniu, w skróceniu.

Pożar w Google

Nawet ten ruch, który zrobili właściciele Alphabetu, tak, czyli Google’a, przywracając jego założycieli, Larrego Page’a i całą resztę. To pokazuje, że jest trochę ogień w kurniku. Może to zbyt kolokwialnie, ale tam zostało zwolnione sporo osób. Firma przechodzi transformacje, pewnie powodów jest mnóstwo i nie znam wszystkich. Natomiast widać, że ten wyścig, w tej chwili coraz bardziej przyspiesza i będzie definiował to, w jaki sposób spora część społeczeństwa będzie korzystała z internetu. Niektórzy w społeczeństwie mylą internet z Googlem, korzystając tylko z tego i widzą wycinek wszechświata. Niestety, ale masa tworzy pieniądze, więc firmy muszą się na tą masę nastawić.

P.P: Zastanawiam się, jak Google może z tego wyjść. Klikanie w różne wyniki to jest dla nich monetyzacja. Mam tu na myśli Google ADS Google Adsense,. Poza tym, jeżeli wpisuje sobie daną frazę w Google, to mam dziesięć wyników na pierwszej stronie i kolejne wyniki na kolejnych stronach, czyli mam wybór. W chatGPT dostanę jedną odpowiedź i muszę się z nią zgodzić albo nie.

M.C: Dlatego DALLE czy Midjourney generują kilka obrazków, żeby jak najbardziej spróbować się dopasować. I wyobraź sobie, że w tej przestrzeni one próbują znaleźć kilka elementów, które odpowiadają najbliżej temu, co się dzieje. Potem badają reakcje użytkowników, bo dla nich bardzo ważne jest czy to się podoba, nie podoba. Czy to odpowiada, nie odpowiada, bo dzięki temu się uczą.

Pogdybajmy o monetyzacji chatGPT

Pogdybajmy chwilkę jak można. W jaki sposób można by to zmonetyzować z perspektywy OpenAI? Zobacz, że czy YouTube czy Google czy inni – oni sprzedają uwagę. Masz reklamy, tu gdzieś tekst. A gdyby pojawiła się w chacieGPT opcja, że ty zapłacisz OpenAI, a twoje rzeczy pojawią w odpowiedziach. To jest absolutnie nic innego tylko reklama, która będzie pewnie wpływała na to, na co użytkownicy będą podatni widząc wyniki, więc znowu to zarządzanie uwagą,

Ja nie wiem jaki oni mają biznes model, ale nie wierzę, że możliwość wpływania na użytkowników i wykorzystanie reklamy zostanie zupełnie olana. OpenAI kiedyś publikowało sporo rzeczy, w związku z tym jak te modele działają, no ale jest konkurencja. Facebook odpalił lamę, czyli ten ich wielki model, który można zastosować, ale nie dla elementów komercyjnych. Google odpaliło Barda, który nie wypalił jakoś tam wspaniale, ale miał być taką odpowiedzią, na to, żeby to było połączone z wyszukiwarką. Ten wyścig zbrojeń będzie trwał, tylko pytanie kto będzie wygrywał i dlaczego.

Na pewno to jest trochę tak, jak z przypadkiem Ubera. Czemu jest taki wielki? Bo był pierwszy i był duży. Potem już wchłonął tyle rynku, że teraz mamy tak zwanych fast followerów, czyli Bolt i tą całą resztę, które za nim podążają, nawet starają się być tańsi. Jednak jak myślisz o rozwiązaniu: „Potrzebuję przejechać z punktu A do B” to myślisz Uber. On wbił się w głowę i to jest jedna ze strategii.

OpenAI jest pierwszy z takimi LLM’ami, które udostępnili i starają się wbić jak najlepiej w naszą pamięć. A czy to jest ostateczna forma interakcji z danymi? Moim zdaniem nie, ponieważ kolejne etapy będą nie tylko graficzne jak DALLE czy Midjourney i nie tylko tekstowe. Powstają już takie rozwiązania, które tworzą firmy generatywne, na podstawie tekstu, a potem już brain machine interface.

Wpływ ChatuGPT na branże copywritingu

N.S: Chciałabym wrócić do tego jak na poszczególne branże wpływa chatGPT. Piotrek, wspomniałeś o tym, że klient kiedyś odszedł, ale wrócił. Jakie jeszcze inne wpływy widzisz na branżę copywriterską?

P.P: Możemy powiedzieć, że to zależy, bo idziemy trochę ze skrajności w skrajność. Moim zdaniem będą agencje albo osoby, które zaczną zlecać pracę copywriterom, żeby zaoszczędzić pieniądze na zasadzie: „Masz tutaj dane przygotowane przez chatGPT, zrób mi z tego redakcję i korektę„.

Jednak spotykam się też z takimi ogłoszeniami dla copywriterów, gdzie agencje zastrzegają: „Jeżeli używasz chatu do tworzenia treści to się nie zgłaszaj, bo my też potrafimy to robić. Potrzebujemy twojej kreatywności i trochę uczuć, które włożysz w ten tekst”. Nie wiem na ile jest to prawdziwa informacja, ale na jednej z grup pojawił się wątek, w którym copywriter miał podjąć współpracę z amerykańską agencją, a ta wymagała w umowie podpisania informacji, że nie będę używał chatu. Mamy dwie różne wersje, a która jest prawdziwa, to czas pokaże.

M.C: Żyjemy w ciekawych czasach. Nie znałem tych przypadków, także dla mnie to absolutne novum. Zobacz jaka jest próba odpowiedzi i reakcji na to co się dzieje, My nie chcielibyśmy, żeby teraz to było sztuczne. Wyobrażam sobie, że w pewnym momencie powstanie pieczątka z ziemniaka: „nie wytworzone za pomocą sztucznej inteligencji”.

Walka o prawa autorskie

P.P: Poza tym, ważnym elementem są tutaj prawa autorskie, Nie pamiętam, czy było DALLE, czy chatGPT, ale na zapytanie „łosoś w rzece”, pojawił się wygenerowany obraz, na którym był filet z łososia jeszcze w opakowaniu. Nie do końca trafione, z tymże ta część tego łososia albo tej rzeki była pobrana od kogoś, kto wcześniej to wrzucił do tego internetu.

M.C: Absolutnie i to jest temat wielka rzeka z tymi łososiami. Jeżeli dobrze pamiętam Getty Images nie lubi się Midjourney. Okazało się, że w procesie uczenia, ktoś nie wyfiltrował tych obrazków, więc obrazki, które były razem ze znakami wodnymi zostały wzięte do uczenia. To co wygenerowały, też miało znaki wodne i powstaje problem: „Ziomki, fajnie, że to się pojawiło, ale to znaczy, że wykorzystaliście nasze obrazki do uczenia i nam się to bardzo nie podoba”.

Znaki wodne

To jest dosyć proste do poczucia dla nas, jako dla ludzi. Model nauczył się, były znaki wodne, które wyszły i mamy cię. Jednak będą o wiele trudniejsze, to znaczy te związane na przykład ze sztuką. Grupa ludzi pozywała Midjourney, co było związane z tym, że Midjourney było w stanie nadać pewien styl do tam DeviantArtów w tle tego wszystkiego jako firma, bo rzeczy, które były wrzucane na DeviantArt’a były brane do uczenia. To spowodowało, że pewien styl się pojawił, który był charakterystyczny dla tych artystów znanych na świecie z tego specyficznego stylu. A tutaj AI było w stanie od razu wytworzyć rzeczy, które są bardzo podobne w tym konkretnym stylu.

Czy ktoś inny jako człowiek mógłby cię skopiować? No mógłby, pewnie, że tak. Są tacy ludzie jak to, że tak powiem słynne powiedzenie: „Na pewno istnieje ktoś tam dalej ze wschodu, kto robi trzy razy lepiej i taniej niż ty”. Natomiast mamy taką ludzką moralność, kawałek etyki, związany z tym, że nie chcę kogoś kopiować. Model nie ma takich ograniczeń, nauczył się, miał to w zbiorze uczącym.

Kreacja sensem istnienia

M.C: Pytanie, które pozostaje na chwilę obecną bez odpowiedzi, mimo że naprawdę to jest temat rzeka. My jako ludzie też uczymy się z wytworów, które są dookoła nas. Jesteśmy taką sumą tych rzeczy, które się gdzieś tam pojawiają. I dla mnie sensem istnienia jest jak jakaś tam kreacja. Pytanie na ile ta kreacja jest oryginalna albo jest odtwórcza i tak dalej? Dla mnie osobiście jest to szara strefa. O tyle, że tak, jak w muzyce, wszystko już podobno powiedziano, są tylko wariacje, tak pewnie w różnych sztukach, wytwarzaniach, my sami w sobie jesteśmy takimi transformatami, to znaczy GPT, czy to jest generative pre-trained transformer. My też transformujemy informacje, które do nas dotarły, czy my się bardzo różnimy?

P.P:. Ja bym jeszcze wrócił odnośnie do tego tematu kopiowania. Powiedziałeś, że człowiek nie skopiuje człowieka, bo ma jeszcze moralność. Zastanawiałem się czy dla wielkich firm, które użyłyby czatu albo generowanego tekstu to nie byłby strzał w stopę? Budowały wizerunek, a teraz nagle wykorzystują tekst na stronie internetowej generowany przez robota. Osoba, która wchodzi na stronę widzi, że jeżeli nawet nie chciało im się napisać tekstu na swoją stronę, tylko go wygenerowali, to jak mają pomóc komuś z zewnątrz?

M.C: Zagram w adwokata diabła ja czasem tak lubię, wiesz.

P.P: Proszę bardzo.

M.C: Patrz, ta firma jest bardzo efektywna. Zrobiła to na pewno szybciej, taniej i z użyciem niższych zasobów. Pewnie mają lepszą stopę zwrotów, poradzą sobie lepiej giełdzie, bo są sprytni, korzystają z nowych technologii. Jeżeli to działa, to działa.

ChatGPT to ziomek po ogólniaku

N.S: To w takim razie, jeżeli chatGPT cały czas jest udoskonalany, to może idzie w trochę innym kierunku? Różne branże nie będą do tego podchodzić tak, jak mówi Piotrek, że no trochę za dużo czasu, żeby to w końcu poprawiać. Może to udoskonalą na tyle, że skorzystają z tego poszczególne branże, wprowadzą drobne poprawki i będzie super.

M.C: Subiektywnie pewnie tak. Na chwilę obecną GPT jako model jest ziomkiem po ogólniaku, która ma taką ogólną wiedzę. I teraz pojawiają się różne wariancje na temat modeli tej konstrukcji. Kodeks to model wykorzystywany w GitHub’ie do programowania, on jest douczony w pewnej specjalności. Pewnie kojarzycie Jaspera. Wykorzystywany jest do marketingu internetowego, więc wyobrażam sobie, że z takiego ogólnego pojemnika na wiedzę, którym jest tam GPT4 można go jeszcze douczyć w pewnym specyficznym zakresie. I będzie on bardziej przydatny w konkretnym miejscu.

I teraz dookoła ogólnej technologii, bawiąc się w futurologa. Wyobrażam sobie, że powstaną firmy, które douczą modele do bardzo specyficznych zastosowań. Będzie np. model do copywritingu, który jest świetny w opowiadaniu o rybach i będzie tworzył bardzo śmieszne pasty. Może powstanie model do użycia w reklamie lub przy generowaniu audio. To wszystko będzie coraz bardziej dążyło do hiperspecjalizacji.

Z ekonomicznego punktu widzenia będzie prawdopodobnie tylko kilkoro gigantów na Świecie, jeżeli chodzi o firmy, które tworzą te ogólne modele, a potem one będą douczane do coraz bardziej specyficznych. Piotrek natchąłby swój styl copywritingu w pewnym momencie, gdyby udało się mieć taki model, który jest otwarty. Są takie modele, które są otwarte, które natchnąłbyś swoimi tekstami, to pewnie one byłyby o wiele bardziej wyspecjalizowane. No i pytanie takie, to czy chciałbyś by taki model pracował za ciebie, wiesz płacił ZUS i tak dalej.

ChatGPT – Podsumowanie

N.S: Podsumowując. Kiedy z chatuGPT warto korzystać, a kiedy podchodzić do niego z dużym dystansem?

P.P: I ja bym jeszcze dodał, czy my powinniśmy się go bać, czy się z nim zaprzyjaźnić?

M.C: O! Ja uważam, że trzeba testować nowe technologie, sprawdzać je i próbować obchodzić. Bez ciekawości nie ma ewolucji. Z mojej perspektywy warto psuć, bawić się i testować. Natomiast oczywiście mieć ograniczone zaufanie i na bardzo wielu poziomach do każdej technologii, do tej oczywiście też.

To znaczy, jak chatGPT poda wam informacje, jak przyrządzić omlet, no to uważajcie, czy tam jakiś arszenik się nie pojawi. Statystycznie nieprawdopodobne, ale trzeba mieć pewno ograniczone zaufanie. My jednak mamy pewny element logiki, a tam to jest tylko statystyka. Więc ja, jak najbardziej uważam, że trzeba się przyzwyczaić.

W tej chwili albo bezpośrednio będziemy z niego korzystać albo będziemy pochłaniali owoce tego, co takie modele robią, czyli pośrednio z tego korzystali. To powoduje moim zdaniem, że musimy być wyczuleni. Tak jak nauczyliśmy się, że istnieją deep fejki, tak musimy wiedzieć, że takie modele jak chatGPT powstają. Warto wiedzieć, co one wytwarzają, bo będziemy się z tym stykali coraz szerzej i szerzej.

Piotr Polok

Od 2012 roku aktywnie prowadzę działania związane z tworzeniem treści i reklamą w internecie. Współpracuję z firmami i klientami indywidualnymi, przede wszystkim działającymi w e-commerce oraz usługach.