O sztucznej inteligencji mówi się coraz głośniej i coraz częściej, bo sama sztuczna inteligencja też do cichych nie należy. Trwa ożywiona debata na ile jest to pomocne narzędzie, a na ile niebezpieczne i eliminujące podstawowe wartości humanitarne, w tym prawdziwą, nie sztuczną inteligencję. Naturalnie jednym z głównych wątków dyskusji jest nadawanie cybernetycznym projektom cech ludzkich i na tym polu pojawiał się nowy argument z półki prawnej.
Najpopularniejszy w tej chwili produkt ChatGPT prawdopodobnie będzie pierwszą sztuczną inteligencją pozwaną przez człowieka, który twierdzi, że jego dobra osobiste zostały przez ChatGPT naruszone. Na pierwszy rzut oka sprawa może się wydawać kuriozalna, ale jak się temu dobrze przyjrzeć, to jest dokładnie odwrotnie. Tego typu sprawy pokazują, jak w soczewce, że sztuczna inteligencja wymyka się podstawowym mechanizmom nie tylko psychologicznym i humanitarnym, ale też prawnym.
Wniesienie pozwu do sądu rozważa Brian Hood, burmistrz miasteczka Hepburn Shire w Australii i bynajmniej nie chodzi o błahostki, tylko o bardzo ostre i przede wszystkim nieprawdziwe wypowiedzi na jego temat. ChatGPT zapytany o Briana Hooda odpowiada między innymi, że burmistrz był karany za łapówkarstwo, chociaż karta karna tego lokalnego działacza jest czysta jak łza. Mało tego, Brian Hood zdobył popularność i głosy wyborców głównie dlatego, że podjął walkę ze skorumpowanym środowiskiem w swoim miasteczku.
Jak widać, nie ma w tym nic śmiesznego i oryginalnego, jest to po prostu dotkliwe naruszenie dóbr osobistych, a w polskim prawie ewidentne zniesławienie, czyli odpowiedzialność karna z art. 212 k.k. Burmistrz nie celuje w proces medialny, tylko chce usunąć treści rujnujące jego wizerunek. W tym celu wysłał pismo przedprocesowe do producenta oprogramowania OpenAI, ale ze strony firmy nie padła żadna odpowiedź, ani na wezwanie do usunięcia kłamliwych informacji, ani na prośby o kontakt i „ludzkie” wyjaśnienie sprawy.
Takich przypadków może być znacznie więcej, ponieważ wbrew temu co ChatGPT mówi sam o sobie, nie jest to najinteligentniejszy podmiot na świecie. Za tym oprogramowaniem oczywiście stoi człowiek i prawdziwa inteligencja lub jej brak. W wymiarze prawnym jest to bardzo skomplikowana materia, bo oczywiście samego ChatGPT pozwać się nie da. Teoretycznie pozwanym powinien być producent, ten jednak może się tłumaczyć, że sztuczna inteligencja, jak sama nazwa wskazuje, to oddzielny byt podejmujący decyzje na miarę własnych możliwości i co ostatecznie z siebie wydobędzie, jest poza kontrolą programistów.
Prawne uporządkowanie wszystkich aspektów funkcjonowania bądź też zakazu funkcjonowania sztucznej inteligencji, należało wdrożyć przed uruchomieniem podobnych projektów, ale niestety tak się nie stało i skutki mogą być naprawdę fatalne. Dziwi fakty, że praktycznie żadne państwo, czy instytucje międzynarodowe do tej pory nawet nie podjęły próby prawnego uregulowania tych kwestii, za to podejmują tysiące innych regulacji, nie mających większego znaczenia i sensu.
Nie wierzymy nikomu, nie wierzymy w nic! Patrzymy na fakty i wyciągamy wnioski!