Łukasz Kulicki
RADCA PRAWNY | PARTNER
Radca prawny, Partner w Kancelarii Linke Kulicki specjalizującej się w obsłudze prawnej firm z sektora IT, nowych technologii i branży internetowej, a także podmiotów przechodzących transformację cyfrową. Specjalizuje się w negocjowaniu umów IT, w szczególności umów wdrożeniowych, umów na usługi IT (w tym chmurowych) i umów body leasingowych. Zajmuje się także doradztwem prawnym z zakresu ochrony danych osobowych (RODO), prawa e-commerce i własności intelektualnej.
Opublikowano:
Programy wykorzystujące generatywną sztuczną inteligencję do tworzenia różnego rodzaju treścii stają się coraz bardziej popularne. Choć tego typu narzędzia mogą przyśpieszyć prace nad projektem i uczynić ją bardziej wydajną, wielu „twórców” zapomina o potencjalnych problemach natury prawnej, jakie niesie ze sobą zbyt gorliwe sięganie po algorytmy AI/ML. O czym pamiętać, przygotowując umowę z klientem, aby nie narazić się na nieprzyjemności?
Kto powinien ustalać zasady korzystania z AI?
Na obecnym stanie rozwoju technologii, kiedy generatywna sztuczna inteligencja stała się powszechnie dostępna, nawet jej darmowe modele radzą sobie z prostymi zadaniami. Poruszenie kwestii związanych z AI powinna więc rozważyć każda firma, która realizuje zamówienia skutkujące powstaniem utworu. W szczególności może to być software house, agencja marketingowa lub copywriterska, czy studio graficzne. Już dzisiaj sztuczna inteligencja radzi sobie całkiem nieźle z tworzeniem treści pisanych, obrazów, animacji, a także kodu źródłowego. Nie ulega wątpliwości, że z biegiem czasu możliwości AI będą się zwiększały. Jeśli chcesz bezpiecznie kontynuować współpracę z klientami, pamiętaj o cyklicznym audycie umów pod kątem korzystania z AI!
Kiedy ustalić z klientem zakres korzystania z narzędzi sztucznej inteligencji?
Jeżeli rozważasz korzystanie z narzędzi AI przy tworzeniu projektu, pamiętaj, aby dokładnie omówić te kwestie z klientem przed formalnym rozpoczęciem współpracy. Jest to niesamowicie ważne z kilku względów.
Przede wszystkim większość umów o dzieło (lub też umów nienazwanych, charakterystycznych dla branży IT, w których często dominują właśnie elementy umowy rezultatu) przewiduje, że dzieło zostanie wykonane osobiście przez przyjmującego zamówienie. Wynika to z faktu, że zamawiający najczęściej oczekuje określonej jakości prac i chce mieć pewność, że wykonały je osoby mające właściwe kwalifikacje. Oczywiście w umowach wprowadza się klauzule przewidujące podwykonawstwo, ale najczęściej są one ograniczone, np. w ten sposób, że zamawiający ma prawo sprzeciwu względem wybranego podwykonawcy.
Trzeba też pamiętać, że umowa o dzieło, która zakłada stworzenie utworu, powinna przewidywać możliwość przeniesienia praw autorskich majątkowych do tego utworu na zamawiającego, ewentualnie również rozporządzenia dotyczące praw autorskich osobistych. W przeciwnym razie zamawiający nie będzie mógł korzystać z przyjętego dzieła bez naruszania monopolu prawnoautorskiego. Właśnie dlatego w umowach wprowadza się postanowienia dotyczące:
- oznaczenia utworu,
- pól eksploatacji,
- momentu przejścia praw do utworu,
- wynagrodzenia za korzystanie z utworu.
W przypadku sięgnięcia np. po ChatGPT, czy Midjourney spowoduje to, że prawa autorskie (a w szerszym kontekście także utwór) w ogóle nie powstaną, więc nie będzie można przenieść ich na zamawiającego. Sama praca zaś nie zostanie wykonana samodzielnie.
Korzystanie z narzędzi sztucznej inteligencji bez wyraźnego wskazania tego w umowie to działanie na własną szkodę. Firma narusza bowiem postanowienia dotyczące podstawowych warunków współpracy. Może to rodzić ryzyko nie tylko zakończenia współpracy, ale także zapłaty wysokich odszkodowań w związku z niewykonaniem lub nienależytym wykonaniem zobowiązania umownego.
Jeżeli korzystanie z narzędzi AI ma być legalne, strony powinny wspólnie zgodzić się na taką możliwość i przewidzieć ją wprost w treści umowy.
Czy korzystanie z narzędzi AI rodzi ryzyko plagiatu?
Godząc się na wykorzystanie przez zamawiającego narzędzi ML, zamawiający powinien zdawać sobie sprawę, że nie jest to rozwiązanie wolne od wszelkich niebezpieczeństw. Choć rzeczywiście rezultat można otrzymać szybko i niższym kosztem, nie zawsze takie działania będą pożądane z prawnego punktu widzenia. Pomijając kwestie związane z jakością generatywnej sztucznej inteligencji, trzeba pamiętać, że algorytmy AI/ML są trenowane przy użyciu zasobów sieciowych, do których już mogą istnieć jakieś prawa autorskie.
W praktyce oznacza to ryzyko wygenerowania utworu identycznego lub bardzo podobnego do już istniejącego. Oczywiście twórca w pierwszej kolejności skieruje roszczenia do zamawiającego, ale ten będzie mógł sięgnąć poprzez roszczenie regresowe do wykonawcy, który zapewniał, że „wszystko będzie dobrze”.
Czy można ustrzec się przed zarzutem plagiatu? Tak i to na kilka sposobów. Przede wszystkim wykonawca powinien wyposażyć się w narzędzia do wykrywania skopiowanych treści. Można też wygenerować treść przy użyciu narzędzia AI, a następnie zmodyfikować ją w na tyle dużym stopniu, aby przeważał w niej pierwiastek twórczy. Może być to łatwiejsze niż tworzenie całego utworu od początku, a jednocześnie zmniejsza ryzyko zarzutu, że wykonawca posłużył się skopiowanymi treściami.
Czy można ukryć treści wygenerowane przez AI?
Z reguły rozwój zabezpieczeń powoduje, że włamywacze uczą się nowych metod działania. Podobna zasada akcji-reakcji występuje w przypadku narzędzi AI. Im lepsze modele powstają, tym więcej pojawia się na rynku narzędzi do wykrywania unikalności i generatywności treści. Z ich istnienia zdaje sobie sprawę coraz więcej firm, które na co dzień współpracują z branżą kreatywną lub IT. Próba ukrycia korzystania z AI ma więc „krótkie nogi” i szybko wyjdzie na jaw.
Warto też wspomnieć, że brak ochrony prawnoautorskiej dla treści generowanych dla klienta ma jeszcze jeden aspekt – wizerunkowy. Tego typu wytwory są klasyfikowane jako „Royalty Free”, co oznacza, że każdy może je skopiować i umieścić na swojej stronie internetowej lub portalu społecznościowym. Koniecznie trzeba to uświadomić klientowi przed nawiązaniem współpracy, zwłaszcza jeżeli chce on budować przewagę konkurencyjną na podstawie unikalności publikowanych treści.
Wielu dostawców narzędzi AI, jak chociażby OpenAI, Microsoft i Google wprowadziło do regulaminów postanowienia wyłączające ich odpowiedzialność za korzystanie przez użytkowników z narzędzi AI, a także zobowiązujące ich do wyraźnego oznaczania treści wytworzonej w ten właśnie sposób. Jako przykład można podać klauzulę proponowaną przez OpenAI w regulaminie korzystania z usługi:
”The author generated this text in part with GPT-3, OpenAI’s large-scale language-generation model. Upon generating draft language, the author reviewed, edited, and revised the language to their own liking and takes ultimate responsibility for the content of this publication”.
W wolnym tłumaczeniu cytowanego fragmentu chodzi o to, że użytkownik ponosi całkowitą odpowiedzialność za wykorzystanie narzędzi AI.
W jaki sposób wykonawca może zadbać o swoje interesy? Wewnętrzna polityka AI
Przemyślana umowa zawarta z klientem pozwala zabezpieczyć zamawiającemu swoje interesy. Nie chroni jednak przed niewłaściwym korzystaniem z narzędzi AI/ML przez pracowników zamawiającego. W jaki sposób dyscyplinować zespół, aby odpowiedzialnie korzystał z narzędzi sztucznej inteligencji lub też nie robił tego wcale?
Służy do tego wewnętrzna polityka AI. To wewnętrzny dokument, który reguluje zasady korzystania ze sztucznej inteligencji w firmie. Powinien on określać m.in.
- dopuszczalne granice korzystania z narzędzi AI,
- obowiązki pracowników w zakresie wyjaśnienia rezultatu uzyskanego przy użyciu AI,
- zasady szkolenia pracowników w zakresie korzystania z narzędzi AI,
- zasady weryfikacji plagiatu i innych, potencjalnych problemów związanych z wykorzystaniem sztucznej inteligencji.
Polityka AI musi zostać zaakceptowana przez wszystkich pracowników, którzy w zakresie swoich obowiązków mają przewidziane czynności, których wykonanie da się powierzyć algorytmom. W umowie z pracownikiem można też zawrzeć klauzulę, która wyłącza możliwość korzystania z narzędzi AI.
Sprawdź również: Wewnątrzfirmowa polityka AI – jak ją stworzyć?
Bezpieczne korzystanie z narzędzi AI w firmie – Kancelaria Linke Kulicki
Korzystanie z narzędzi AI może być sposobem na zwiększenie efektywności pracy. Nie powinno jednak być postrzegane, jako sposób na łatwy i szybki zarobek poprzez automatyzację tworzenia wszystkich możliwych treści. Ewentualne korzystanie z oprogramowania sztucznej inteligencji należy doprecyzować przed nawiązaniem współpracy z klientem, aby nie doprowadzić do niepotrzebnych sporów.
Jeśli prowadzisz software house lub agencję kreatywną i w swojej pracy wykorzystujesz generatywną sztuczną inteligencję, zachęcamy do sięgnięcia po nasze usługi. Kancelaria Linke Kulicki od lat specjalizuje się w obsłudze podmiotów z sektora IT oraz nowych technologii. Przeprowadzimy audyt wewnętrznych polityk, umów z klientami i doradzimy, co zrobić, aby z innowacyjnych rozwiązań korzystać bezpiecznie.