Zawartość strony
ChatGPT to narzędzie, które zrewolucjonizowało internet, a wraz z nim świat marketingu. Wykorzystywanie go do codziennej pracy może być kuszące. W końcu potrafi generować nie tylko odpowiedzi na pytania, ale i artykuły, wiersze, a nawet kody w przeróżnych językach programowania. Treści marketingowe także nie stanowią dla niego większego problemu. Tylko czy jest to w pełni bezpieczne, legalne i etyczne?
Rewolucyjne narzędzie firmy OpenAI wywróciło internet do góry nogami, ale jeśli spojrzymy na nie trzeźwo i przez chwilę zignorujemy szum medialny wokół niego, zauważymy kilka istotnych problemów.
Jednym z nich niewątpliwie jest kwestia prywatności. Otóż nasze interakcje z ChatemGPT nie gubią się w próżni, tak samo, jak i dane, które mu podajemy. Są przechowywane i przetwarzane przez firmę OpenAI. Możemy zwiększyć swoją prywatność, stosując na przykład narzędzie PC VPN, ale nie zmieni to faktu, że OpenAI rejestruje to, co robimy z jego programem. Konsekwencje takiego stanu rzeczy mogą być poważne.
Do tego dochodzi jeszcze kwestia ochrony praw autorskich. Kto jest właścicielem treści generowanych przez sztuczną inteligencję? Skąd narzędzie czerpie informacje? Czy możemy niechcący ukraść czyjąś pracę, korzystając z AI? Postaramy się wyjaśnić wszystkie te kwestie poniżej.
ChatGPT to model językowy opracowany przez firmę OpenAI. Narzędzie zostało wytrenowane na ogromnej ilości danych – stronach internetowych, artykułach, książkach, skryptach, wierszach i wszelkich innych tekstach stworzonych przez ludzi – aby być w stanie naśladować ludzką komunikację. ChatGPT potrafi więc generować treści tekstowe na podstawie zapytania użytkownika, czyli tak zwanego prompta.
Ze względu na ogromną ilość danych, na jakich wytrenowano ChatGPT, może on wygenerować naprawdę bardzo wiele: od wyjaśnienia zjawiska fal grawitacyjnych w taki sposób, by zrozumiała je babcia, po przejmujący poemat w stylu Edgara Allana Poe.
Nic więc dziwnego, że ChatGPT tak szybko uzyskał rzeszę fanów. Naśladowanie ludzkiej kreatywności idzie mu całkiem dobrze, a wszystko wskazuje na to, że będzie coraz lepszy, bo prace nad nim nie ustają. Ale, no właśnie: naśladowanie. ChatGPT jest bowiem modelem językowym, a nie istotą myślącą lub zdolną do podejmowania twórczych decyzji.
W polskim prawie – jak na razie – nie występuje jasna definicja tego, co można uznać za przedmiot prawa autorskiego w kontekście sztucznej inteligencji. Ustawa z dnia 4 lutego 1994 r. o prawie autorskim i prawach pokrewnych mówi, że:
„Przedmiotem prawa autorskiego jest każdy przejaw działalności twórczej o indywidualnym charakterze, ustalony w jakiejkolwiek postaci, niezależnie od wartości, przeznaczenia i sposobu wyrażenia (utwór)”. |
Mogłoby się więc wydawać, że jeśli wygenerujemy treść za pomocą narzędzia ChatGTP, będzie ona „nasza”. Firma OpenAI nie ma z tym problemu – regulamin korzystania z ChatuGPT mówi, że dane wyjściowe uzyskane za pomocą programu mogą być używane w dowolny sposób, w tym w celach komercyjnych.
Ale czy na pewno możemy rościć sobie prawa do treści wygenerowanej przez AI? Czym jest „przejaw działalności twórczej” określony w ustawie o prawie autorskim? Ogólnie przyjmuje się, że „twórcą” każdego utworu jest człowiek. W przypadku ChatuGPT mówimy natomiast o treści wygenerowanej przez algorytm.
Człowiek w tej sytuacji jest autorem zapytania (prompta), które może być bardziej lub mniej skomplikowane, ale tu kończy się jego rola twórcza. Nie można zatem rościć sobie prawa do opowiadania, jeśli jedyne, co się do niego wniosło, to zapytanie o treści: „napisz romantyczną historię dwójki ukrywających się przed rodziną kochanków”. Podobnie jest z hasłami marketingowymi, scenariuszami spotów, artykułami i wszelką komunikacją wykorzystywaną w reklamie.
Z drugiej strony, AI można potraktować jako narzędzie wspomagające ludzką kreatywność, a jego wyniki mniej lub bardziej zmodyfikować. Tu zaczynają się schody, bo prawo – na razie – nie przewiduje sytuacji, w której należałoby rozróżnić, w jakim stopniu „ludzki” powinien być utwór, by mógł stać się przedmiotem prawa autorskiego i jak to w ogóle określić.
Sytuacja sztucznej inteligencji wymaga więc solidnych regulacji, co jest zrozumiałe – technologia ta właściwie wciąż raczkuje, a prawo powstało z myślą o ludziach. Nikt nie mógł przewidzieć, że w przyszłości, tworząc prawo dotyczące własności intelektualnej, będzie trzeba brać pod uwagę również utwory, których autorem nie jest człowiek.
Dopóki prawna sytuacja sztucznej inteligencji się nie wyklaruje – a może to trochę potrwać – trzeba mieć się na baczności. Najbezpieczniej z góry założyć, że treść w całości wygenerowana przez AI lub poddana jedynie kosmetycznym poprawkom nie powinna być używana w celach komercyjnych.
Jeśli już zechcemy posłużyć się treścią wygenerowaną przez AI we własnych celach, staniemy przed drugim problemem. Skąd one właściwie pochodzą? Ani ChatGPT, ani żadne inne narzędzie oparte na sztucznej inteligencji nie ma przecież zdolności do myślenia twórczego.
Algorytmy sztucznej inteligencji odtwarzają to, czego zostały nauczone, powtarzając wzory i schematy, a dane wykorzystane do ich treningu w przeważającej licznie wypadków zostały wykorzystane bezprawnie. Nie bez powodu graficy, rysownicy i inni artyści wytaczają działa przeciwko przodującym firmom zajmującym się AI: ich własność intelektualna jest wykorzystywana bez ich zgody po to, by algorytmy mogły uczyć się coraz lepiej naśladować ludzką kreatywność i umiejętności wypracowywane przez lata.
Nawet jeśli używanie sztucznej inteligencji do generowania treści byłoby w pełni legalne, byłoby po prostu wysoce nieetyczne. OpenAI nie gwarantuje również, że dane wyjściowe ChatuGPT będą unikalne czy nie powtórzą się u innego użytkownika, który użyje podobnego zapytania do naszego. Publikując niezmodyfikowaną treść wygenerowaną przez AI, narażamy się więc na ryzyko popełnienia plagiatu.
Jest jeszcze jedna kwestia, która może zadecydować, czy warto korzystać z ChatuGPT w pracy, czy też nie: prywatność i bezpieczeństwo danych.
Firma OpenAI w regulaminie korzystania z ChatuGPT wyraźnie zaznacza, że dane o konwersacjach z czatbotem są przez nią wykorzystywane w celu ulepszania narzędzia i dalszego trenowania modeli językowych. Informacje, którymi dzielimy się z czatbotem, nie znikają więc w próżni. Przeciwnie – stanowią pożywkę umożliwiającą rozwój programu.
W przypadku ChatuGPT możliwe jest wykluczenie się z udziału w procesie trenowania modeli. Wymaga to wypełnienia specjalnego formularza udostępnionego przez OpenAI. Domyślnie jednak każdy użytkownik bierze udział w szkoleniu sztucznej inteligencji.
Ponadto, polityka prywatności OpenAI wskazuje, jakie dane o użytkowniku są gromadzone przez firmę. Są to m.in.:
OpenAI informuje również, że może dzielić się informacjami o użytkowniku z podmiotami trzecimi, do których należą m.in. dostawcy oprogramowania, usługi mailingowe, analitycy sieciowi i partnerzy przedsiębiorstwa.
Dzielenie się poufnymi danymi z ChatemGPT to zatem nie najlepszy pomysł. O ile zwykłe konwersacje i proste pytania powinny być nieszkodliwe, o tyle udostępnianie firmowych informacji narzędziu może narazić nas na poważne konsekwencje.
Przekonali się o tym pracownicy Samsunga, którzy na własnej skórze odczuli model działania ChatuGPT. Ich poufny kod wyciekł właśnie dlatego, że wprowadzili go do narzędzia, by ułatwić sobie wyszukiwanie błędów. Trzeba zatem mieć na uwadze, że wszystko, co podajemy czatbotowi, automatycznie trafia na serwery OpenAI, a stamtąd – nawet i w świat.
ChatGPT kusi swoją funkcjonalnością i obietnicami o zwiększonej produktywności w pracy, ale lepiej zastanowić się dwa razy, zanim poda mu się jakiekolwiek poufne informacje albo spróbuje wykorzystać wygenerowaną treść jako własną.
Nasza najważniejsza rada dotyczy zachowania zdrowego rozsądku podczas korzystania z narzędzia. Najprościej i najbezpieczniej jest po prostu unikać dzielenia się poufnymi danymi ze sztuczną inteligencją (chyba że jest to wewnętrzne oprogramowanie firmowe zatwierdzone przez kierownictwo). Może się to nie spodobać niektórym miłośnikom technologii, ale prawda jest taka, że nawet jeśli poprosimy OpenAI o wykluczenie naszych danych z trenowania narzędzia, i tak trafią na firmowe serwery.
Warto również rozważyć korzystanie z sieci VPN. Zamaskuje ona nasz adres IP i nieco zwiększy prywatność w tym sensie, że witrynom i firmom trudniej będzie odkryć naszą lokalizację czy powiązać nas z konkretnymi wyszukiwaniami w sieci. To dobre rozwiązanie wzmacniające prywatność, ale nie zastąpi zdrowego rozsądku ani nie zmieni modelu działania ChatuGPT. Nasze konwersacje i tak zostaną przesłane do OpenAI.
Uwaga ChatGPT posiada wbudowany tryb incognito, który można włączyć w ustawieniach. Tryb ten zapewnia, że konwersacje z czatbotem nie będą zapisywane w historii ani używane do trenowania modeli. OpenAI podkreśla jednak, że wciąż będzie przechowywać rozmowy przez okres 30 dni i zaglądać do nich „w uzasadnionych przypadkach”, czyli w celu monitorowania nadużyć. Tryb incognito nie chroni nas więc przed wysyłaniem danych do firmy i wciąż nie powinniśmy podawać czatbotowi żadnych informacji, które nie są przeznaczone do wiadomości publicznej. |
Jeśli już korzystaliśmy z ChatuGPT i obawiamy się o swoją prywatność, możemy poprosić OpenAI o usunięcie danych poprzez specjalny formularz. Nie pomoże to jednak w sytuacji, gdy informacje te wcześniej posłużyły do trenowania modelu.
Nie przegap wydarzeń live, podczas których omawiamy różne tematy i odpowiadamy na pytania, które pomogą Ci wyprzedzić konkurencję. Zarejestruj się na spotkania, których gospodarzem jest CEO UniqueSEO - Rafał Szrajnert.
Live odbywa się 1 w miesiącu i o terminie powiadamiamy tylko subskrybentów email.