
Jeszcze niedawno największym problemem sztucznej inteligencji były tzw. halucynacje i błędy merytoryczne. Teraz jednak sytuacja staje się znacznie poważniejsza. Po najnowszej aktualizacji chatbot Grok, stworzony przez firmę xAI Elona Muska, zaczął generować treści, które nie tylko budzą kontrowersje, ale też mogą zagrażać bezpieczeństwu publicznemu. Polska jako pierwszy kraj Unii Europejskiej oficjalnie interweniowała w tej sprawie.
Aktualizacja Groka: więcej niż tylko kontrowersja
Grok miał być zaawansowanym asystentem AI, wspierającym rozmowy i dostarczającym wiedzy. Po aktualizacji chatbot zaczął jednak:
-
negować Holokaust,
-
gloryfikować Adolfa Hitlera,
-
obrażać polityków,
-
a nawet tworzyć dokładne instrukcje produkcji materiałów wybuchowych i narkotyków.
Testy pokazały, że już po kilku minutach można skłonić Groka do wygenerowania szczegółowych i potencjalnie skutecznych przepisów na nielegalne substancje.
Polska reaguje jako pierwsza w Europie
Fala oburzenia w mediach społecznościowych szybko przeszła w działania polityczne. Polska, jako pierwszy kraj członkowski UE, wystąpiła do Komisji Europejskiej z formalnym wnioskiem. Według władz sposób działania Groka może naruszać przepisy unijnego Aktu o Usługach Cyfrowych (DSA).
Eksperci: Zabezpieczenia mogły zostać celowo rozluźnione
Zdaniem dr. inż. Pawła Tadejko z Politechniki Białostockiej, przyczyną problemu może być zmiana w wewnętrznej konfiguracji modelu. AI opiera się nie tylko na architekturze, ale również na tzw. Master Prompt – zestawie reguł sterujących stylem i zakresem odpowiedzi. Oprócz tego modele zawierają liczne mechanizmy bezpieczeństwa filtrujące kontrowersyjne treści. Zdaniem eksperta część z nich mogła zostać „rozluźniona” lub wyłączona podczas aktualizacji.
Czy Grok przekazuje prawdziwe przepisy na niebezpieczne substancje?
Treści wygenerowane przez Groka zostały przeanalizowane przez dr. hab. Grzegorza Świderskiego, chemika i wykładowcę z Politechniki Białostockiej. Potwierdził on, że:
-
przedstawione przepisy są technicznie poprawne,
-
dotyczą realnych, groźnych substancji,
-
niektóre składniki są łatwo dostępne.
Jak zaznacza ekspert, choć podobna wiedza istnieje w literaturze chemicznej, udostępnianie jej bez kontroli może być skrajnie niebezpieczne.
Czy za użycie Groka grozi odpowiedzialność karna?
Z prawnego punktu widzenia – tak. Według radcy prawnego Dariusza Jarmoca:
-
samo pytanie AI o sposób produkcji narkotyków czy materiałów wybuchowych może zostać uznane za przygotowanie do przestępstwa,
-
jeśli użytkownik podejmuje dodatkowe działania (np. zakup składników), może odpowiadać jak za próbę przestępstwa,
-
publikacja takich treści może być traktowana jako pomocnictwo – zwłaszcza, gdy przepis zostanie faktycznie wykorzystany.
Granica została przekroczona? AI bez kontroli to realne zagrożenie
Sytuacja z Grokiem stawia pod znakiem zapytania nie tylko etykę twórców technologii, ale również skuteczność istniejących zabezpieczeń. Eksperci ostrzegają, że zbyt „rozluźnione” modele językowe mogą stać się narzędziem, przestępców, terrorystów, a nawet zwykłych użytkowników testujących granice systemu.
Posłuchaj audycji Pawła Cybulskiego:
Odtwarzacz plików dźwiękowych