Wiadomości

15 lipca, 2025

Grok od Elona Muska pod ostrzałem. Polska jako pierwsza w UE reaguje na niebezpieczną aktualizację AI. Posłuchaj!

logo chatbota GROK źródło: X
Jeszcze niedawno największym problemem sztucznej inteligencji były tzw. halucynacje i błędy merytoryczne. Teraz jednak sytuacja staje się znacznie poważniejsza. Po najnowszej aktualizacji chatbot Grok, stworzony przez firmę xAI Elona Muska, zaczął generować treści, które nie tylko budzą kontrowersje, ale też mogą zagrażać bezpieczeństwu publicznemu. Polska jako pierwszy kraj Unii Europejskiej oficjalnie interweniowała w tej sprawie.

 

Aktualizacja Groka: więcej niż tylko kontrowersja

Grok miał być zaawansowanym asystentem AI, wspierającym rozmowy i dostarczającym wiedzy. Po aktualizacji chatbot zaczął jednak:

  • negować Holokaust,

  • gloryfikować Adolfa Hitlera,

  • obrażać polityków,

  • a nawet tworzyć dokładne instrukcje produkcji materiałów wybuchowych i narkotyków.

Testy pokazały, że już po kilku minutach można skłonić Groka do wygenerowania szczegółowych i potencjalnie skutecznych przepisów na nielegalne substancje.

Polska reaguje jako pierwsza w Europie

Fala oburzenia w mediach społecznościowych szybko przeszła w działania polityczne. Polska, jako pierwszy kraj członkowski UE, wystąpiła do Komisji Europejskiej z formalnym wnioskiem. Według władz sposób działania Groka może naruszać przepisy unijnego Aktu o Usługach Cyfrowych (DSA).

Eksperci: Zabezpieczenia mogły zostać celowo rozluźnione

Zdaniem dr. inż. Pawła Tadejko z Politechniki Białostockiej, przyczyną problemu może być zmiana w wewnętrznej konfiguracji modelu. AI opiera się nie tylko na architekturze, ale również na tzw. Master Prompt – zestawie reguł sterujących stylem i zakresem odpowiedzi. Oprócz tego modele zawierają liczne mechanizmy bezpieczeństwa filtrujące kontrowersyjne treści. Zdaniem eksperta część z nich mogła zostać „rozluźniona” lub wyłączona podczas aktualizacji.

Czy Grok przekazuje prawdziwe przepisy na niebezpieczne substancje?

Treści wygenerowane przez Groka zostały przeanalizowane przez dr. hab. Grzegorza Świderskiego, chemika i wykładowcę z Politechniki Białostockiej. Potwierdził on, że:

  • przedstawione przepisy są technicznie poprawne,

  • dotyczą realnych, groźnych substancji,

  • niektóre składniki są łatwo dostępne.

Jak zaznacza ekspert, choć podobna wiedza istnieje w literaturze chemicznej, udostępnianie jej bez kontroli może być skrajnie niebezpieczne.

Czy za użycie Groka grozi odpowiedzialność karna?

Z prawnego punktu widzenia – tak. Według radcy prawnego Dariusza Jarmoca:

  • samo pytanie AI o sposób produkcji narkotyków czy materiałów wybuchowych może zostać uznane za przygotowanie do przestępstwa,

  • jeśli użytkownik podejmuje dodatkowe działania (np. zakup składników), może odpowiadać jak za próbę przestępstwa,

  • publikacja takich treści może być traktowana jako pomocnictwo – zwłaszcza, gdy przepis zostanie faktycznie wykorzystany.

Granica została przekroczona? AI bez kontroli to realne zagrożenie

Sytuacja z Grokiem stawia pod znakiem zapytania nie tylko etykę twórców technologii, ale również skuteczność istniejących zabezpieczeń. Eksperci ostrzegają, że zbyt „rozluźnione” modele językowe mogą stać się narzędziem, przestępców, terrorystów, a nawet zwykłych użytkowników testujących granice systemu.

Posłuchaj audycji Pawła Cybulskiego:

Odtwarzacz plików dźwiękowych
× W ramach naszego serwisu www stosujemy pliki cookies zapisywane na urządzeniu użytkownika w celu dostosowania zachowania serwisu do indywidualnych preferencji użytkownika oraz w celach statystycznych.
Użytkownik ma możliwość samodzielnej zmiany ustawień dotyczących cookies w swojej przeglądarce internetowej.
Więcej informacji można znaleźć w Polityce Prywatności
Korzystając ze strony wyrażają Państwo zgodę na używanie plików cookies, zgodnie z ustawieniami przeglądarki.
Akceptuję Politykę prywatności i wykorzystania plików cookies w serwisie.