#badaniaNaukowe

2025-10-26

Polski królem AI? Amerykańskie badanie obala mit języka angielskiego

Powszechne przekonanie, że ze sztuczną inteligencją „rozmawia się” najlepiej po angielsku, zostało właśnie mocno podważone.

Zaskakujące wyniki nowej pracy badawczej naukowców z University of Maryland i Microsoftu wskazują, że w skomplikowanych zadaniach wymagających przetwarzania długiego kontekstu, to właśnie język polski okazał się najbardziej wydajny, wyprzedzając angielski i 24 inne języki.

Odkrycie to jest efektem publikacji pracy „One ruler to measure them all:
Benchmarking multilingual long-context language models”. Jej autorzy, w tym Marzena Karpińska z Microsoftu, stworzyli nowy, zaawansowany benchmark o nazwie ONERULER. Jego celem jest ocena, jak duże modele językowe (LLM), takie jak testowane Gemini 1.5 Flash, Llama 3.3 czy Qwen 2.5 , radzą sobie z przetwarzaniem bardzo długich fragmentów tekstu (sięgających 128 tysięcy tokenów) w 26 różnych językach. Ma to kluczowe znaczenie dla realnych zastosowań, jak streszczanie obszernych dokumentów czy odpowiadanie na pytania na ich podstawie, a dotychczasowe testy skupiały się głównie na języku angielskim.

Badanie polegało na wielojęzycznej adaptacji popularnego testu „igły w stogu siana” (Needle-in-a-Haystack). W praktyce polega to na ukryciu konkretnej informacji (np. „magicznego numeru”) w bardzo długim, losowym tekście (np. fragmencie książki ), a następnie zapytaniu modelu o tę informację. Zespół ONERULER stworzył siedem różnych zadań syntetycznych, w tym warianty z wieloma „igłami” czy ukrytymi słowami kluczowymi. Kluczowe było to, że instrukcje do zadań zostały przetłumaczone przez native speakerów na 25 języków, aby zapewnić rzetelność porównania.

Wyniki, zwłaszcza przy analizie długich kontekstów (64K i 128K tokenów), okazały się zaskakujące. Język polski osiągnął najwyższą średnią dokładność na poziomie 88%. Angielski, na którym trenowana jest absolutna większość modeli, zajął dopiero szóste miejsce z wynikiem 83,9%. Co ciekawe, języki słowiańskie (jak polski czy rosyjski), romańskie (francuski, włoski) i germańskie generalnie wypadły najlepiej.

Jest też ciekawostka. Otóż prawdziwą porażkę poniósł język chiński, który pomimo bycia językiem o „wysokich zasobach” (dużej ilości danych treningowych), zajął czwarte miejsce od końca ze średnim wynikiem 62,1%.

Praca rzuca też światło na inny fundamentalny problem: kruchość obecnych modeli AI. Naukowcy wprowadzili wariant testu, w którym poszukiwana „igła” mogła nie istnieć, a w poleceniu dodano prostą instrukcję: „Jeśli takie numery nie istnieją, odpowiedz 'brak’”. Okazało się, że sama ta sugestia dramatycznie obniżyła wydajność modeli – zaczęły one masowo odpowiadać „brak”, nawet wtedy, gdy informacja była obecna w tekście. Pokazuje to, jak łatwo jest „zbić z tropu” AI i jak bardzo potrzebne są nowe, wielojęzyczne metody testowania, takie jak ONERULER.

Wielka rewolucja w Amazonie. Wewnętrzne plany zakładają zastąpienie 600 tys. etatów robotami

#AI #badaniaNaukowe #benchmark #dużeModeleJęzykowe #Gemini #językPolski #LLaMA #LLM #MarzenaKarpińska #Microsoft #news #ONERULER #sztucznaInteligencja #UniversityOfMaryland

Język polski w AI
2025-10-11

Austriaccy naukowcy z Uniwersytetu Leopolda i Franciszka w Innsbrucku wykorzystują szczątki owadów pobrane z przednich szyb oraz masek autobusów miejskich do badań DNA, aby określić gatunek odnalezionego owada.
Dzięki monitoringowi z wykorzystaniem miejskich autobusów naukowcy zidentyfikowali m.in. obecność gatunków inwazyjnych.
Ich badania pozwalają również na wykrywanie potencjalnych roznosicieli chorób.

#entomologia #bioróżnorodność #nauka #BadaniaNaukowe #MonitoringWystępowaniaOwadów

tvn24.pl/tvnmeteo/nauka/austri

2025-10-04

Zaskakujący paradoks medycyny. Białko odpowiedzialne za Alzheimera może chronić przed rakiem

Białko beta-amyloidowe od dekad jest uznawane za głównego winowajcę w rozwoju choroby Alzheimera, niszcząc neurony i prowadząc do utraty pamięci. Naukowcy odkryli jednak coś, co zmienia dotychczasowe postrzeganie tego związku.

Najnowsze badania, opublikowane w prestiżowym czasopiśmie „Cancer Research”, rzucają jednak zupełnie nowe światło na tę czarną owcę biochemii. Naukowcy z Medical University of South Carolina (MUSC) Hollings Cancer Center odkryli, że to samo białko, które sieje spustoszenie w mózgu, może „odmładzać” komórki odpornościowe, czyniąc je super-skutecznymi w walce z nowotworami.

Ten medyczny paradoks – fakt, że pacjenci z chorobą Alzheimera znacznie rzadziej zapadają na raka – intrygował naukowców od lat. Badacze z Hollings Cancer Center postanowili w końcu znaleźć jego przyczynę. Po przeanalizowaniu danych z pięciu lat ogólnokrajowych ankiet odkryli, że dorośli po 59. roku życia z diagnozą Alzheimera byli aż 21 razy mniej narażeni na rozwój nowotworu niż ich rówieśnicy. To nie mógł być przypadek.

Co dzieje się w naszych komórkach?

Kluczem do zagadki okazały się limfocyty T – wyspecjalizowane komórki naszego układu odpornościowego, których zadaniem jest tropienie i niszczenie komórek nowotworowych.

Niestety, z wiekiem limfocyty T tracą swoją moc. W ich wnętrzu dochodzi do nadaktywacji procesu zwanego mitofagią, który można porównać do zbyt gorliwej ekipy sprzątającej. Zamiast usuwać tylko uszkodzone „elektrownie” komórkowe (mitochondria), zaczyna ona pozbywać się także tych w pełni sprawnych. W efekcie komórki odpornościowe słabną i stają się mniej skuteczne w walce z rakiem.

Dowody z laboratorium

Naukowcy przeprowadzili serię eksperymentów na myszach, które miały cechy podobne do choroby Alzheimera. Okazało się, że nowotwory rosły w ich organizmach znacznie wolniej.

Co więcej, gdy badacze pobrali limfocyty T od myszy z „Alzheimerem” i przeszczepili je chorym na raka, zdrowym myszom, ich guzy również zaczęły się kurczyć. To był ostateczny dowód na to, że za antynowotworową tarczę odpowiada właśnie układ odpornościowy, a nie inne czynniki związane z chorobą neurodegeneracyjną.

Zatem wspomniany beta-amyloid, główny czynnik degeneracyjny neuronów w chorobie Alzheimera nie jest jednocześnie lekarstwem na raka, to bardziej złożona kwestia. Białko ma jednak zdaniem naukowców korzystny wpływ na kondycję komórek układu odpornościowego, a te – w pełni sprawne – znacznie lepiej radzą sobie z detekcją i usuwaniem nowotworów.

Jak działa ten mechanizm?

Okazało się, że beta-amyloid zachowuje się w limfocytach T zupełnie inaczej niż w mózgu. Zamiast szkodzić, wnika do mitochondriów i działa jak hamulec bezpieczeństwa, blokując nadgorliwą „ekipę sprzątającą” (mitofagię).

Dzięki temu komórki odpornościowe nie tracą swoich źródeł energii, pozostają zdrowe, w pełni funkcjonalne i gotowe do walki z rakiem. Co ciekawe, ten sam efekt zaobserwowano, analizując komórki pobrane od starszych pacjentów – u osób z Alzheimerem limfocyty T wyglądały i działały jak komórki osób znacznie młodszych.

Nadzieja na przyszłość

Jeszcze raz warto podkreślić, że nikt nie sugeruje, że choroba Alzheimera jest lekarstwem na raka. Jednak zrozumienie tego mechanizmu otwiera zupełnie nowe drzwi dla medycyny. Odkrycie sugeruje, że w przyszłości możliwe będzie opracowanie terapii, które naśladują ochronne działanie beta-amyloidu w układzie odpornościowym. Mogłoby to prowadzić do stworzenia leków „odmładzających” limfocyty T, co zrewolucjonizowałoby immunoterapię nowotworów, zwłaszcza u osób starszych.

Zainteresowanych odsyłam zarówno do wspomnianego „Cancer Research” jak i informacji z MUSC Hollings Cancer Center.

Microsoft: sztuczna inteligencja potrafi ominąć zabezpieczenia i stworzyć biologiczne zagrożenia „zero-day”

#Alzheimer #badaniaNaukowe #białkoAmyloidowe #immunoterapia #limfocytyT #medycyna #news #nowotwór #rak #układOdpornościowy

Fot. National Cancer Institute / Unsplash

OpenAI przyznaje, że omijanie tzw. halucynacji jest „matematycznie niemożliwe”

Nowe badania OpenAI ujawniają, że halucynacje w dużych modelach językowych, polegające na generowaniu fałszywych, ale naturalnie brzmiących odpowiedzi, pozostają istotnym wyzwaniem. Mimo postępów w modelu GPT-5, problem ten wciąż wymaga dalszej analizy i badań nad poprawą dokładności i rzetelności sztucznej inteligencji.

kontrabanda.net/r/openai-przyz

2025-08-15

Miłość z aplikacji jest gorszej jakości? Polscy naukowcy współautorami dużego badania

Międzynarodowy zespół badaczy, kierowany przez dr Martę Kowal z Uniwersytetu Wrocławskiego we współpracy z naukowcami z Australian National University, opublikował wyniki badań, które sugerują, że pary poznające się przez internet są mniej zadowolone ze swoich związków w porównaniu do tych, które poznały się osobiście. Analiza objęła ponad 6000 uczestników z 50 krajów.

Badanie ujawniło, że osoby, które poznały swoich partnerów online, zgłaszały niższą satysfakcję ze związku oraz niższy poziom miłości, w tym intymności, namiętności i zaangażowania, niż osoby, które nawiązały relacje w świecie rzeczywistym. Wśród badanych średnio 16% poznało swojego partnera przez internet, a w przypadku związków rozpoczętych po 2010 roku odsetek ten wzrósł do 21%.

Podobni mają łatwiej

Naukowcy wskazują na kilka możliwych przyczyn tego zjawiska. Jedną z kluczowych jest tzw. homogamia, czyli tendencja do łączenia się w pary osób o podobnych cechach. Związki nawiązywane offline częściej charakteryzują się większym podobieństwem partnerów pod względem społecznym i edukacyjnym, co, jak dowodzą wcześniejsze badania, sprzyja trwalszym relacjom. „Podobne tło społeczne i edukacyjne może pozytywnie wpływać na jakość związku poprzez wspieranie większego wsparcia społecznego, wspólnych doświadczeń życiowych oraz zbieżności wartości i światopoglądów” – wyjaśnia współautor badania, Adam Bode z Australian National University.

Kolejnym czynnikiem jest paradoks wyboru. Internet daje dostęp do pozornie nieograniczonej liczby potencjalnych partnerów, co w teorii powinno ułatwiać znalezienie idealnej osoby. W praktyce jednak, jak twierdzą badacze, często prowadzi to do przeciążenia i trudności z podjęciem decyzji.

Przesunięcie w stronę przelotnych znajomości

Adam Bode zwraca również uwagę na zmianę charakteru relacji nawiązywanych online. Podczas gdy pierwsi użytkownicy aplikacji randkowych szukali partnerów na całe życie, współcześni użytkownicy coraz częściej nastawieni są na przelotne znajomości. „Ta zmiana w kierunku krótkoterminowych, mniej zaangażowanych relacji może z kolei przyczyniać się do niższej jakości związku” – twierdzi Bode. Dodaje również, że w świecie online trudniej jest dostrzec tzw. czerwone flagi, czyli sygnały ostrzegawcze dotyczące potencjalnego partnera.

Autorzy badania podkreślają, że w obliczu rosnącej popularności randek online na całym świecie, ich odkrycia nie mają na celu potępienia tej formy poznawania ludzi. Wskazują raczej na potrzebę „wzmocnienia wsparcia w celu poprawy jakości relacji wśród wszystkich par, a w szczególności tych, które poznały swoich partnerów online”. Zainteresowanych szerszym spojrzeniem odsyłam do źródła: Couples who meet online less happy in love study shows.

Tinder i Amazon na Apple TV

#aplikacjeRandkowe #badaniaNaukowe #Bumble #drMartaKowal #miłość #news #Psychologia #randkiOnline #relacje #satysfakcjaWZwiązku #Tinder #UniwersytetWrocławski #związki

tinder, aplikacje randkowe, technologia, lifestyle, psychologia, obraz wygenerowany przez AI
2025-07-16

Nowe badanie Apple: AI, która rozumie interfejsy aplikacji jak człowiek

Naukowcy z Apple, we współpracy z fińskim Uniwersytetem Aalto, zaprezentowali nowy model sztucznej inteligencji o nazwie ILuvUI.

Jest to model wizualno-językowy (VLM), który został specjalnie wytrenowany, aby rozumieć i logicznie analizować interfejsy użytkownika (UI) aplikacji mobilnych na podstawie zrzutów ekranu i rozmów w języku naturalnym. W testach porównawczych nowy model okazał się lepszy od otwartego oprogramowania, na którym bazował.

Większość obecnych modeli wizualno-językowych jest trenowana na tzw. obrazach naturalnych, takich jak zdjęcia psów czy znaków drogowych. W rezultacie radzą sobie one znacznie gorzej, gdy mają do czynienia ze zorganizowanymi środowiskami, jakimi są interfejsy aplikacji. Jak wyjaśniają badacze, samo analizowanie tekstu w UI nie wystarcza, ponieważ pomija bogatą informację wizualną, a to właśnie połączenie obu tych warstw jest kluczowe dla pełnego zrozumienia kontekstu, podobnie jak u ludzi.

Aby rozwiązać ten problem, zespół naukowców wziął istniejący, otwarty model VLM o nazwie LLaVA i dostroił go specjalnie do analizy interfejsów użytkownika. Kluczowe było wytrenowanie go na syntetycznie wygenerowanym zbiorze danych, który zawierał pary obrazów (zrzutów ekranu) i powiązanych z nimi tekstów. W skład tego zbioru wchodziły m.in. interakcje w formie pytań i odpowiedzi, szczegółowe opisy ekranów, przewidywane wyniki działań, a nawet wieloetapowe plany (np. „jak posłuchać najnowszego odcinka podcastu” lub „jak zmienić ustawienia jasności”). Co istotne, ILuvUI potrafi analizować cały ekran na podstawie prostej komendy tekstowej, bez potrzeby wskazywania przez użytkownika konkretnego obszaru zainteresowania.

Według badaczy Apple, ich podejście może okazać się niezwykle przydatne w dwóch głównych obszarach: dostępności (ułatwienia dostępu dla osób z niepełnosprawnościami) oraz zautomatyzowanego testowania interfejsów aplikacji. W przyszłości prace mogą objąć wykorzystanie większych koderów obrazu i obsługę wyższych rozdzielczości, a także generowanie wyników w formatach (np. JSON), które będą mogły płynnie współpracować z istniejącymi frameworkami UI.

#AI #Apple #badaniaNaukowe #dostępność #ILuvUI #interfejsUżytkownika #LLaVA #news #sztucznaInteligencja #uczenieMaszynowe #UI

Apple AI interfejsy
2025-07-15

Czy sztuczna inteligencja naprawdę rozumie świat? Nowe badanie rzuca cień wątpliwości

Wielką obietnicą modeli językowych, takich jak te napędzające ChatGPT, jest to, że ucząc się przewidywać kolejne słowa w zdaniu, są one w stanie zbudować głębsze zrozumienie świata.

Naukowcy z Uniwersytetów Harvarda i MIT postanowili to sprawdzić, zadając fundamentalne pytanie: czy AI jest jak Johannes Kepler, który potrafił precyzyjnie przewidzieć ruch planet, ale nie rozumiał rządzących nim sił, czy raczej jak Izaak Newton, który te siły odkrył i opisał za pomocą uniwersalnych praw? Wyniki ich badań, opublikowane w lipcu 2025 roku, sugerują, że dzisiejsza AI jest znacznie bliższa Keplerowi.

Badacze opracowali nową technikę do testowania modeli AI, którą nazwali „sondą skłonności indukcyjnych” (ang. inductive bias probe). Zamiast zaglądać do skomplikowanej, wewnętrznej architektury modeli, co jest niezwykle trudne, postanowili sprawdzić, jak sztuczna inteligencja radzi sobie z zupełnie nowymi zadaniami, bazując na swojej wcześniejszej „wiedzy”.

W swoim głównym eksperymencie naukowcy wytrenowali model AI (typu Transformer) do przewidywania trajektorii planet w tysiącach symulowanych układów słonecznych. Model stał się w tym zadaniu niezwykle biegły, osiągając niemal doskonałą precyzję w przewidywaniu, gdzie znajdzie się dana planeta w przyszłości.

Test z mechaniki newtonowskiej

Prawdziwy test polegał jednak na czymś innym. Gdy model opanował już przewidywanie orbit (zadanie Keplera), naukowcy zlecili mu nowe zadanie, wymagające głębszego zrozumienia fizyki (zadanie Newtona). Poprosili AI, by na podstawie trajektorii obliczyła wektory siły grawitacji działające na planetę w danym momencie – co jest podstawą mechaniki Newtona.

W tym momencie model poniósł spektakularną porażkę. Kiedy badacze spróbowali za pomocą tzw. regresji symbolicznej odtworzyć „prawo grawitacji”, którego „nauczył się” model, okazało się ono zupełnie bezsensowne i nie przypominało prawa Newtona. Co więcej, dla różnych zestawów danych AI tworzyła zupełnie inne, nielogiczne prawa, co dowodzi, że nie odkryła jednej, uniwersalnej zasady.

Skróty myślowe zamiast zrozumienia

Podobne wyniki uzyskano w innych dziedzinach, na przykład w grze Othello. Model doskonale nauczył się przewidywać, jakie ruchy są dozwolone w danej sytuacji , ale dalsze testy wykazały, że nie stworzył on wewnętrznego modelu samej planszy. Zamiast tego, nauczył się prostszej heurystyki: grupował w swojej „pamięci” te pozycje na planszy, które, mimo że wyglądały inaczej, oferowały ten sam zestaw dozwolonych ruchów. Oznacza to, że model nie dążył do zrozumienia zasad gry, a jedynie do znalezienia najprostszej drogi do wykonania swojego zadania, czyli przewidzenia kolejnego tokenu.

Wnioski z badania są otrzeźwiające. Chociaż modele językowe doskonale radzą sobie z zadaniami, do których zostały wytrenowane, często nie budują głębokiego i spójnego modelu świata. Zamiast tego, wydają się uczyć zestawu specyficznych dla danego zadania „sztuczek” i dróg na skróty, które zawodzą, gdy trzeba zastosować wiedzę w nowy, bardziej fundamentalny sposób. Jeżeli ktoś chciałby zgłębić tematykę szerzej, odsyłam do wspomnianej pracy naukowej badaczy z MIT i Harvarda.

AI w roli terapeuty to zły pomysł. Nowe badanie Stanforda ujawnia szokujące błędy i groźne porady botów

#AI #badaniaNaukowe #heurystyka #mechanikaNewtonowska #modeleFundamentalne #modeleJęzykowe #news #światowyModel #sztucznaInteligencja #uczenieMaszynowe

sztuczna inteligencja - obraz ilustracyjny
Henryk WójtowiczHenrykWojtowicz
2025-04-01

Zaczynamy wraz z SKN Psychologii Klinicznej i Neuropsychologii oraz SKN Psychiatrii Holistycznej badania nad wypaleniem akademickim - jeśli studiujesz zapraszamy do naszego badania ❤🤓

Link ⬇️
forms.office.com/e/vcPHZSJtxH

Chłop Marcin :fediverse:chlopmarcin@101010.pl
2023-02-26

Nowe wnioski na temat pochodzenia #Covid19. Kolejna po FBI agencja rządu USA doszła do wniosku, że #koronawirus wydostał się z laboratorium: theguardian.com/world/2023/feb Wciąż nie ma jednomyślności (i może jeszcze długo nie będzie), ale naturalne pochodzenie #Covid na pewno nie jest już pewne.

Niestety pewne jest również i to, że współczesna cywilizacja się nie opamięta i nie wyciągnie wniosków na temat konieczności refleksji moralnej i realnych uregulowań w kwestii badań naukowych - szczególnie tych, które mogą skutkować katastrofalnymi konsekwencjami.

#technologizm #nauka #badaniaNaukowe #pandemia

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst