Czy AI wrobi cię w morderstwo?
Austriacka organizacja pozarządowa NOYB (None of Your Bussines) złożyła skargę do norweskiego organu nadzorczego ds. ochrony danych osobowych (Datatilsynet) na OpenAI – właściciela ChatGPT. Bezpośrednim powodem złożenia skargi miała być sprawa pewnego obywatela Norwegii, który dowiedział się z ChatGPT, że zamordował własne dzieci. Oczywiście, informacje te zostały zmyślone przez AI. W ocenie organizacji, OpenAI naruszyło w tej sprawie przepisy o ochronie danych osobowych, w tym chociażby w zakresie prawa do sprostowania danych osobowych. mimo ogromnej konkurencji na rynku, wydaje się, że ChatGPT wciąż pozostaje jednym z najbardziej popularnych tzw. chatbotów, czyli narzędziem AI, które umożliwia zaawansowaną interakcję z użytkownikami. Narzędzie to, choć może być bardzo przydatne w wielu aspektach życia, nie jest jednak pozbawione wad. Jedną z nich jest tendencja do tzw. halucynacji, tj. wymyślania informacji w przypadku, gdy AI nie ma dostatecznej wiedzy w danym temacie. Przykładem jest sprawa obywatela Norwegii, którego ChatGPT przedstawił w dość nieciekawym świetle. Narzędzie wskazało, że osoba ta zamordowała własne dzieci i została skazana na wiele lat więzienia. Morderstwo nigdy się nie wydarzyło, niemniej historia zawierała również prawdziwe fakty, m.in. w zakresie miejscowości zamieszkania, czy ilości i płci jego dzieci. Wplecenie fałszywej historii w prawdziwe okoliczności nadawało jej pozór wiarygodności, przez co mogła ona stać się jeszcze bardziej szkodliwa dla reputacji wskazanego obywatela Norwegii.