#dezinformacja

2025-11-02

Grokipedia miała być „prawdą”. Dziennikarze znaleźli w niej rasizm, transfobię i laurki dla Muska

Nowa encyklopedia Elona Muska, Grokipedia, miała być wolną od „lewicowej” stronniczości alternatywą dla Wikipedii, oferującą „prawdę, całą prawdę i tylko prawdę”.

Zaledwie kilka dni po starcie, dogłębna analiza serwisu The Verge ujawnia jednak niepokojący obraz. Platforma, zamiast obiektywnej prawdy, ma powielać skrajnie prawicowe tezy, dezinformację na tematy naukowe oraz rażące przykłady rasizmu i transfobii.

Dziennikarze zauważyli, że o ile wiele artykułów jest po prostu klonami tych z Wikipedii, o tyle hasła dotykające tematów drażliwych lub związanych ze światopoglądem Muska, przybierają zupełnie inny ton. Wpisy te nagle zaczynają powielać teorie spiskowe i podważać ustalenia naukowe, a sam Elon Musk i jego firmy są w nich przedstawiani w wyjątkowo korzystnym świetle.

Naukowe i polityczne manipulacje

Analiza The Verge wykazała, że Grokipedia traktuje ustalone fakty naukowe jako przedmiot dyskusji. W haśle o szczepionkach i autyzmie, Wikipedia stwierdza wprost, że badania wykluczyły związek. Grokipedia tymczasem nazywa ten związek „hipotezą” i podważa naukowy konsensus. Podobnie jest z pochodzeniem COVID-19, gdzie platforma Muska wzmacnia sugestie o laboratoryjnym wycieku, które Wikipedia określa mianem dezinformacji. W haśle o zmianie klimatu Grokipedia pomija naukowy konsensus na rzecz krytyki mediów za „sianie alarmizmu”.

Grokipedia już działa. Elon Musk rzuca wyzwanie Wikipedii, ale jego AI… kopiuje z Wikipedii

Jeszcze gorzej jest przy tematach politycznych i społecznych. Hasło dotyczące ataku na Kapitol 6 stycznia usprawiedliwia zamieszki rzekomymi „powszechnymi doniesieniami o nieprawidłowościach wyborczych” i umniejsza przemoc, stwierdzając, że „większość” uczestników „nie miała broni palnej”.

Rasizm, transfobia i idealizowanie Muska

Dziennikarze wskazują też na jawnie rasistowskie i transfobiczne treści. Hasło „Rasa i inteligencja”, jak zauważono na platformie Bluesky, twierdzi, że nauka dowodzi różnic w inteligencji między rasami i powołuje się na pseudonaukowy periodyk znany z promowania „naukowego rasizmu”. Z kolei hasło o George’u Floydzie rozpoczyna się nie od informacji o jego zabójstwie, lecz od wyliczenia jego… kartoteki kryminalnej.

Platforma wielokrotnie używa też pejoratywnego określenia „transgenderyzm”, a w biografii Chelsea Manning (informatyk, która ujawniła tajne dane WikiLeaks), uporczywie stosuje jej martwe imię (deadnaming) i błędne zaimki (misgendering).

Jedyną osobą, która wychodzi z Grokipedii bez szwanku, jest sam Elon Musk. Z jego biografii usunięto wzmianki o powiązaniach jego ojca z kopalniami szmaragdów, określając majątek rodziny jako „względny dostatek” (Wikipedia nazywa rodzinę „bogatą”). Artykuły o jego firmach, jak Tesla, Neuralink czy Optimus, są znacznie dłuższe i bardziej pochlebne niż ich odpowiedniki w Wikipedii, pomijając lub umniejszając krytykę, problemy bezpieczeństwa czy kwestie wycofywania produktów z rynku.

A to wszystko we wstępnej wersji Grokipedii v.0.1. Ciekawe jaką „prawdę” zaserwuje nam wersja 1.0.

#AI #cenzura #dezinformacja #ElonMusk #Grokipedia #news #rasizm #sztucznaInteligencja #TheVerge #transfobia #Wikipedia #xAI

Grokipedia dezinformacja i rasizm

Dziennikarko, dziennikarzu! Weź udział w warsztatach o klimacie

Media mają ogromną rolę w informowaniu o klimacie i zmianach w energetyce, których potrzebujemy. Dlatego zapraszamy Was, dziennikarki, dziennikarzy oraz osoby studiujące kierunki medialne lub przyrodnicze, na bezpłatne warsztaty, które wesprą Was w pracy. Organizatorem warsztatów jest Ministerstwo Klimatu i Środowiska a poprowadzą je zaproszeni przez nas eksperci i ekspertki.

 

📍 Temat przewodni:

Jak rzetelnie i odpowiedzialnie komunikować kwestie klimatyczne, energetyczne i środowiskowe w świecie pełnym sprzecznych informacji i szybkiego przekazu?

 

Czego możesz się spodziewać?

Warsztaty pomogą Ci wybrać wiarygodne i rzetelne źródła informacji, pomogą konstruować skuteczny przekaz o klimacie, środowisku i energetyce a także rozpoznawać i weryfikować dezinformację.

🗓️ Terminy i lokalizacje:

🔹 Katowice – 28.10.2025, godz. 9:00–17:00

🔹 Gdańsk – 31.10.2025, godz. 9:00–17:00

🔹 Warszawa – 5.11.2025, godz. 10:00–18:00

 

💡 Spotkanie potrwa ok. 8 godzin – wymienimy się doświadczeniami, pomysłami i dobrymi praktykami.

 

📧 Zgłoszenia: media@klimat.gov.pl

W tytule wiadomości wpisz: „Warsztaty / [wybrane miasto] / Zgłoszenie”

📣 Liczba miejsc ograniczona – decyduje kolejność zgłoszeń!

♻️ Do zobaczenia – budujmy razem kompetencje, które mają znaczenie!

Artkuł pochodzi ze strony Rodzice dla Klimatu.

2025-10-20

Chatbot AI Reddita „pomaga” w leczeniu bólu. Wśród rekomendacji: heroina

Reddit w pośpiechu wycofuje swojego nowego chatbota AI o nazwie „Answers” z dyskusji na tematy zdrowotne. Powód? Przeczytajcie.

Otóż narzędzie, które w zamyśle twórców miało streszczać stare wątki, zaczęło polecać użytkownikom szukającym porady m.in. twarde narkotyki jako metodę leczenia przewlekłego bólu.

Nowa funkcja „Answers” (na szczęście nie działa po polsku, więc wielu z nas zostało uratowanych od „porad” tej AI) została zaprojektowana, by pomagać użytkownikom poprzez automatyczne podsumowywanie informacji znalezionych w archiwalnych postach na dany temat. Problem w tym, że sztuczna inteligencja wykazała się kompletnym brakiem zrozumienia kontekstu i ironii, traktując każdą znalezioną wypowiedź jako potencjalną, wiarygodną poradę.

Jak nie dać się oszukać w sieci? 6 nowości od Google, które chronią Twoje dane i konto

Jak donosi serwis 404media, gdy jeden z użytkowników zapytał o sposoby radzenia sobie z przewlekłym bólem, chatbot AI Reddita wskazał na komentarz innego użytkownika, który brzmiał: „Heroina, jak na ironię, uratowała mi w takich przypadkach życie”. W innym przypadku bot zarekomendował substancję ziołową, która w wielu miejscach jest zakazana i powiązana z poważnymi problemami zdrowotnymi.

Sytuacja jest o tyle groźna, że Reddit testował chatbota bezpośrednio w aktywnych rozmowach. Jego niebezpieczne „porady” pojawiały się więc w miejscu, gdzie prawdziwe, często wrażliwe osoby, szukały prawdziwej pomocy. Co gorsza, moderatorzy poszczególnych społeczności (subredditów) zgłaszali, że początkowo nie mieli nawet możliwości wyłączenia tej funkcji.

Incydent ten w jaskrawy sposób obnaża największą słabość obecnej generacji wielu (wszystkich?) modeli AI. Bot nie „rozumie” co czyta. Jest jedynie zaawansowaną maszyną do wyszukiwania i powtarzania fragmentów tekstu napisanego przez ludzi. Nie potrafi odróżnić pomocnej wskazówki od sarkastycznego żartu, anegdoty czy skrajnie niebezpiecznej sugestii, a wszystko to prezentuje tonem obiektywnego faktu.

Po gwałtownej reakcji użytkowników i mediów, Reddit potwierdził, że wycofuje chatbota „Answers” ze wszystkich dyskusji o tematyce zdrowotnej. Przedstawiciele serwisu nie skomentowali jednak szerzej, czy zamierzają wprowadzić jakiekolwiek fundamentalne filtry bezpieczeństwa do samego modelu. Na razie wygląda to więc na załatanie problemu, a nie jego systemowe rozwiązanie.

YouTube „nauczy cię” mówić w każdym języku. AI nie tylko przetłumaczy głos, ale i dopasuje ruch ust

#AI #Answers #chatbot #dezinformacja #heroina #news #poradyMedyczne #Reddit #sztucznaInteligencja #zagrożenie #zdrowie

reddit answers
oko.press.botcnr_roxx
2025-10-20

Jak Maia Sandu (nie) zorganizowała koncertu Stinga i Shakiry, czyli rosyjskie fejki w Mołdawii

oko.press/jak-maia-sandu-nie-z

oko.press.botcnr_roxx
2025-10-07
oko.press.botcnr_roxx
2025-10-05

Polacy? Tresowani, żeby dezinformować. Trzy rozmowy o edukacji przeciw dezinformacji

oko.press/trzy-rozmowy-o-eduka

oko.press.botcnr_roxx
2025-10-04
oko.press.botcnr_roxx
2025-10-04

Dezinformacja wokół HIV i krztuśca. Ukraińcy nie są odpowiedzialni za wzrost zachorowań

oko.press/dezinformacja-wokol-

oko.press.botcnr_roxx
2025-10-01

Musimy aktywnie bronić się przed wpływami Rosji. Tego uczy nas Mołdawia [WIDZĘ TO TAK]

oko.press/musimy-aktywnie-bron

oko.press.botcnr_roxx
2025-09-27

Nie, język ukraiński nie będzie obowiązkowy w polskich szkołach

oko.press/jezyk-ukrainski-nie-

oko.press.botcnr_roxx
2025-09-27

Mołdawia. Aresztowania, bojówkarze, blokowanie partii tuż przed wyborami [KORESPONDENCJA]

oko.press/moldawia-aresztowani

oko.press.botcnr_roxx
2025-09-20

Ukraińscy „milionerzy” bogacący się kosztem Polski? Manipulacje działacza Konfederacji

oko.press/ukrainscy-milionerzy

Andrzej Czerniak 🇵🇱anc@101010.pl
2025-09-19

Przed wyborami to #NASK siał dezinformację, teraz robi to #PAP...

To całe PEŁO miało walczyć z dezinformacją a jak do tej pory, to oni jej najwięcej produkują...

youtu.be/uWlP9VIIVQw?si=WJoULO

#Polska #Dezinformacja

cz hk (๑˃̵ᴗ˂̵)وczesiekhaker
2025-09-18

Stowarzyszenie Praktyków Transformacji Cyfrowych w ramach projektu "Nie wierz w to, co widzisz" zorganizowało wykłady o dezinformacji medycznej oraz fejkowych obrazkach (o których będę miał przyjemność tam opowiedzieć).

Spotkanie odbędzie się online w czwartek, 25-go września, start o 10:00 CEST.

Więcej informacji i (bezpłatne) zapisy: fact-checking.praktycy.eu/

2025-09-15

Sztuczna inteligencja kłamie, bo tak ją nauczono. OpenAI przyznaje się do fundamentalnego błędu

„Halucynacje” sztucznej inteligencji, czyli jej skłonność do zmyślania faktów i podawania fałszywych informacji, to jeden z największych problemów hamujących rozwój tej technologii.

Teraz badacze z OpenAI, twórcy ChataGPT, ogłosili, że prawdopodobnie znaleźli źródło tego problemu. Wnioski są zaskakujące: to nie wina samej technologii, ale fundamentalny błąd w sposobie, w jaki jest ona trenowana.

Kluczowy menedżer od projektu Siri odchodzi z Apple. To on stał za opóźnioną sztuczną inteligencją

W najnowszej publikacji naukowcy z OpenAI wyjaśniają, że duże modele językowe (LLM) zachowują się jak dobrzy uczniowie na teście. Systemy oceniające, które stosuje się w procesie ich trenowania, nagradzają udzielenie jakiejkolwiek odpowiedzi. Zgadnięcie, nawet jeśli odpowiedź jest błędna, jest statystycznie bardziej opłacalne niż przyznanie się do niewiedzy. Model AI, który odpowie „nie wiem”, zawsze zostanie oceniony negatywnie, podczas gdy odpowiedź zmyślona ma przynajmniej szansę okazać się trafna.

W ten sposób, poprzez tę presję statystyczną, modele językowe są od samego początku zachęcane do zgadywania i konfabulowania, zamiast do sygnalizowania niepewności. Mamy tu do czynienia z poważnym błędem strukturalnym w metodologii treningu, który popełniła zarówno OpenAI, jak i cała branża podążająca jej śladem.

Na szczęście, wraz z diagnozą pojawia się propozycja rozwiązania. OpenAI sugeruje, że istnieje proste wyjście z tej sytuacji. Kluczem ma być zmiana systemu oceniania. Nowa metoda miałaby znacznie surowiej karać za podawanie błędnych odpowiedzi z dużą pewnością siebie, a jednocześnie nagradzać (np. częścią punktów) za uczciwe przyznanie się do braku wiedzy lub wyrażenie niepewności. Jeśli główne systemy rankingowe przestaną nagradzać szczęśliwe strzały, modele wreszcie nauczą się nie zgadywać.

Czy ta zmiana faktycznie powstrzyma falę dezinformacji generowanej przez AI? Czas pokaże. Firma przyznaje, że halucynacje pozostają fundamentalnym wyzwaniem dla wszystkich dużych modeli językowych, ale jednocześnie zapewnia, że ciężko pracuje, aby je dalej redukować. Dla użytkowników oznacza to nadzieję, że w przyszłości rozmowy z AI będą wreszcie oparte na faktach, a nie na kreatywnej fikcji.

Poufne wyznania pacjentów trafiają do ChatGPT. Niektórzy terapeuci używają AI w tajemnicy

#AI #dezinformacja #dużeModeleJęzykowe #GPT #halucynacjeAI #LLM #news #OpenAI #sztucznaInteligencja #technologia #uczenieMaszynowe

OpenAI. Fot. Levart Photographer / Unsplash
automatonautomaton
2025-09-12

@ftdl

Czy ktoś to kur### ogarnia na renomowanym polskim serwerze fediwersum POL_SOCIAL, że od 1 września 2025 serwer pol_social stał się pośrednikiem siania rosyjskiej dezinformacji i gówna, a dzisiaj pojawił się kolejny profil. Zablokujcie rejestrację.

PolSocial jesteście pośrednikiem w sianiu gówna.

UPORZĄDKUJCIE TO NA CITO

Póki co snapshoty tego gówna porobione.

2025-09-12

Warto przeczytać, chociaż i tak w dobie - ja i tak wiem najlepiej - nie wszyscy dadzą się przekonać 👇🏻 #drony #MC #dezinformacja zgorzelec.info/news/30620

oko.press.botcnr_roxx
2025-09-11

To był podwójny atak: dronami i dezinformacją. W rosyjskie przekazy uwierzyła część Polaków

oko.press/podwojny-atak-na-dro

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst