#sztucznaInteligencjaApple

2025-08-26

Apple: listy kontrolne skuteczniejsze niż nagrody w trenowaniu AI

Nowe badania Apple pokazują, że duże modele językowe (LLM) mogą znacząco poprawić swoje wyniki dzięki prostej metodzie – sprawdzaniu własnej pracy przy pomocy checklist.

Czym jest RLCF?

Apple opracowało technikę Reinforcement Learning from Checklist Feedback (RLCF). Zamiast oceny „kciuk w górę/kciuk w dół”, model dostaje listę kryteriów i punktację (0–100) za to, jak dobrze je spełnia.

Efekty badań?

  • Poprawa wyników na wszystkich testowanych benchmarkach,
  • +6 pkt na InFoBench, +4 pkt na FollowBench, +3 pkt na Arena-Hard,
  • Wzrost nawet o 8,2% w ocenie złożonych instrukcji.

Checklista zwiększa precyzję w realizacji wieloetapowych zadań i złożonych poleceń. To kluczowe, bo asystenci AI stają się głównym interfejsem, przez który użytkownicy będą wykonywać codzienne zadania.

RLCF poprawia „instruction following”, ale nie rozwiązuje jednak kwestii bezpieczeństwa i wymaga użycia mocniejszych modeli jako „sędziów” przy trenowaniu mniejszych.

Pełny raport i opis metody znajdziecie tutaj.

Jest jednak coś niesamowitego w tym, że metoda checklist, którą zawdzięczamy branży lotnictwa cywilnego nadal okazuje się w wielu obszarach jedną z najskuteczniejszych metod sprawowania kontroli. Więcej o jej historii przeczytacie w świetnej książce „Metoda czarnej skrzynki. Zaskakująca prawda o nauce na błędach” autorstwa Matthew Syed, którą w Polsce wydało krakowskie Insignis Media.

#alignmentAI #AppleAI #badaniaApple2025 #checklistAI #LLMApple #poprawaAI #Qwen25Apple #ReinforcementLearningFromChecklistFeedback #RLCF #sztucznaInteligencjaApple

2025-08-19

Apple ujawnia trzy kluczowe badania z konferencji o prywatności i sztucznej inteligencji

Apple opublikowało prezentacje z Workshop on Privacy-Preserving Machine Learning (20–21 marca 2025), poświęconego prywatności i bezpieczeństwu w rozwoju AI.

Kilka miesięcy temu Apple zorganizowało warsztaty na temat uczenia maszynowego z zachowaniem prywatności, podczas których przedstawiono prezentacje i dyskusje na temat prywatności, bezpieczeństwa i innych kluczowych obszarów odpowiedzialnego rozwoju uczenia maszynowego. Teraz prezentacje te zostały upublicznione.

Podobnie jak niedawno w przypadku prezentacji z 2024 Workshop on Human-Centered Machine Learning, Apple opublikowało post na swoim blogu Machine Learning Research z kilkoma filmami i długą listą badań i artykułów, które zostały zaprezentowane podczas dwudniowego wydarzenia hybrydowego, które odbyło się w dniach 20-21 marca 2025 roku.

Do trzech najważniejszych prac należy zaliczyć.

Local Pan-Privacy for Federated Analytics – badanie Apple pokazuje, jak chronić prywatność danych nawet wtedy, gdy urządzenie zostanie wielokrotnie skompromitowane. Zastosowano nowe szyfrowane metody pozwalające zbierać statystyki bez ujawniania aktywności użytkownika.

Źródło: 9to5Mac.

Scalable Private Search with Wally – Apple zaprezentowało system wyszukiwania z wykorzystaniem differential privacy. Mechanizm Wally dodaje do zapytania losowe dane, co zapewnia anonimowość użytkowników, a jednocześnie umożliwia obsługę milionów żądań przy niższych kosztach.

Źródło: 9to5Mac.

Differentially Private Synthetic Data via Foundation Model APIs – badanie Microsoftu pokazuje, jak generować syntetyczne dane na podstawie modeli foundation, zachowując wartość danych rzeczywistych, ale bez naruszania prywatności.

Źródło: 9to5Mac.

Łącznie udostępniono 25 publikacji, przygotowanych przez badaczy z Apple, Microsoftu, Google oraz czołowych uczelni (m.in. MIT, UC Berkeley, Carnegie Mellon).

Oto ich pełna lista:

#AppleAI #AppleBadaniaAI #AppleKonferencjaPrywatność #bezpieczeństwoWAI #daneSyntetyczneAI #differentialPrivacy #federatedAnalytics #prywatnośćDanychApple #sztucznaInteligencjaApple #WallyApple

2025-07-18

Z kotami się nie zadziera – nowa reklama funkcji „Clean Up” od Apple

Apple opublikowało nową reklamę iPhone’a 16, w której prezentuje funkcję „Clean Up” – narzędzie z zakresu Apple Intelligence, służące do usuwania niechcianych obiektów ze zdjęć. Dostępnego po włączeniu AI w Polsce.

W zabawnym spocie mężczyzna usuwa kota z fotografii, co nie podoba się ani zwierzakowi, ani jego właścicielce – na szczęście funkcję można cofnąć.

„Clean Up” pozwala użytkownikowi przesunąć palcem po obiekcie, który chce usunąć, a narzędzie automatycznie „czyści” zdjęcie, zastępując dany element tłem lub innymi detalami.

Funkcja dostępna jest na iPhone’ach 15 Pro, 16 oraz w nadchodzącej serii iPhone 17.

Pamiętajcie – z kotami się nie zadziera!

#AppleIntelligence #AppleReklama #CleanUp #CleanUpIPhone #edycjaZdjęćIPhone #edytorZdjęćIPhone #funkcjeApplePhotos #iPhone16 #iPhone17 #noweFunkcjeIOS #nowościIOS26 #sztucznaInteligencjaApple #usuwanieObiektówZeZdjęć

2025-07-01

Apple rozważa wykorzystanie ChatGPT lub Claude do zasilenia Siri

Apple może zmodernizować Siri, integrując ją z technologią AI od OpenAI (ChatGPT) lub Anthropic (Claude) – donosi Bloomberg.

Firma testuje obecnie duże modele językowe (LLM), które miałyby działać na prywatnych serwerach Apple w ramach Private Cloud Compute.

Według doniesień Anthropic jest obecnie faworytem, a rozmowy z Apple objęły już nawet wstępne ustalenia finansowe. Firma chce jednak wielomiliardowego wynagrodzenia rocznego, które z czasem ma rosnąć – dlatego Apple nie wyklucza współpracy również z OpenAI.

Mimo że Apple pracuje nad własnym LLM dla Siri, napotyka liczne trudności. Po zapowiedziach na WWDC 2024, nowa „Apple Intelligence Siri” miała zadebiutować z iPhone’em 16, ale jej premiera została przesunięta na 2026 rok, co wywołało falę krytyki i pozwy sądowe.

Na razie Apple planuje wprowadzić personalizowane funkcje Siri w iOS 26, a wersję z LLM – dopiero w iOS 27 (jesień 2026). Integracja z zewnętrznym modelem AI miałaby pozwolić na zaoferowanie nowoczesnych funkcji użytkownikom, zanim Apple ukończy własne rozwiązanie.

#AnthropicClaude #AppleIntelligence #AppleLLM #appleSiri #ChatGPTSiri #ChatGPTWIPhone #ClaudeSiri #OpenAIApple #partnerstwoAppleAI #Siri2026 #SiriAI #SiriAktualizacja #SiriIOS26 #SiriIOS27 #sztucznaInteligencjaApple

2025-06-11

Apple wyciąga wnioski i twierdzi, że zaprezentowana rok temu Siri 2 faktycznie działała

Po WWDC 2025 przedstawiciele Apple – Craig Federighi i Greg Joswiak – udzielają wywiadów mediom. W rozmowie z „The Wall Street Journal” potwierdzili, że pokazana rok temu spersonalizowana Siri była działającym oprogramowaniem, a nie tzw. „demoware”. Co to znaczy i dlaczego zatem nadal jej nie ma?

To było prawdziwe działające oprogramowanie, z dużym modelem językowym i semantycznym wyszukiwaniem.

— zapewnił Federighi. Joswiak dodał:

To nie był tylko pokaz.

Opóźnienie wdrożenia nowych funkcji tłumaczą problemami z jakością oraz przejściem na nową architekturę Siri, która ma poprawić działanie systemu w przyszłości.

Z drugiej strony — co mają powiedzieć?

W innej rozmowie podczas WWDC25, Craig Federighi ujawnił, dlaczego obiecane w 2024 roku spersonalizowane funkcje Siri wciąż nie zostały udostępnione:

  • Pierwotna architektura Siri okazała się zbyt ograniczona, by spełnić wysokie standardy jakości Apple.
  • Na początku 2025 roku firma zdecydowała się przebudować Siri od podstaw, wdrażając tzw. architekturę drugiej generacji.
  • To spowodowało opóźnienie o co najmniej rok.

Greg Joswiak potwierdził, że funkcje mają się pojawić dopiero wiosną 2026 roku, najprawdopodobniej w aktualizacji iOS 26.4.

Co miała oferować nowa Siri:

  • lepsze rozumienie kontekstu osobistego,
  • świadomość tego, co użytkownik widzi na ekranie,
  • głębszą integrację z aplikacjami systemowymi (np. odczytanie maila z informacją o locie matki).

Apple spotkało się z pozwami zbiorowymi w USA i Kanadzie za niewywiązanie się z wcześniejszych zapowiedzi.

Podsumowanie

Na WWDC 2025 Apple zaprezentowało znacznie ostrożniejsze podejście do zapowiedzi nowych funkcji. Po krytyce związanej z opóźnieniami spersonalizowanej Siri i systemu CarPlay Ultra, firma zmieniła strategię komunikacji – praktycznie zniknęły obietnice funkcji „dostępnych później w tym roku”.

Nowe funkcje, takie jak wsparcie językowe dla Apple Intelligence, były wcześniej zapowiedziane, a to sugeruje, że większość nowości trafi do użytkowników już we wrześniu, wraz z premierą iOS 26 – bez konieczności czekania na wersje 26.1 czy 26.2.

Apple zdaje się unikać ryzykownych obietnic i skupia się na bardziej realistycznym harmonogramie wdrożeń – co może odbudować zaufanie użytkowników po wcześniejszych wpadkach.

Czego nie pokazano podczas WWDC 2025 – część 1

#aiApple #Apple #AppleIntelligence #carplayUltra #CraigFederighi #GregJoswiak #iOS26 #noweFunkcjeApple #opóźnieniaApple #premieryApple #Siri #Siri2025 #spersonalizowanaSiri #strategiaApple #sztucznaInteligencjaApple #WWDC2024 #WWDC2025

2025-05-22

iOS 19 udostępni modele AI Apple dla deweloperów

Apple planuje udostępnić swoje modele sztucznej inteligencji (AI) deweloperom wraz z premierą iOS 19, informuje Bloomberg.

Firma wprowadzi nowe SDK (Software Development Kit), które pozwoli twórcom aplikacji łatwiej integrować funkcje AI w swoich produktach.

Nowe SDK zawierać będzie te same modele językowe, które Apple wykorzystuje w systemowych funkcjach Apple Intelligence, takich jak podsumowania powiadomień, Narzędzia do pisania, Genmoji czy Image Playground. Apple skoncentruje się początkowo na modelach działających lokalnie na urządzeniu.

Dotąd deweloperzy mogli jedynie integrować gotowe funkcje AI od Apple – teraz zyskają możliwość tworzenia własnych funkcji opartych na AI Apple, zamiast korzystać z zewnętrznych rozwiązań.

Nowe funkcje Siri, oparte na dużych modelach językowych (LLM), mają pojawić się dopiero w iOS 20 w 2026 roku. Apple chce, by przyszła Siri była bardziej zaawansowana – na wzór ChatGPT czy Claude.

Więcej szczegółów poznamy podczas WWDC 2025, które odbędzie się 9 czerwca.

Już 9 czerwca rozpocznie się konferencja Apple Worldwide Developers Conference

#AIWAplikacjach #AppleAISDK #AppleDeweloperzyAI #AppleIntelligence #AppleModeleJęzykowe #AppleWritingTools #AppleWWDC2025 #genmoji #ImagePlayground #iOS19 #noweFunkcjeIOS2025 #SiriChatGPT #SiriLLM #sztucznaInteligencjaApple

2025-05-20

Apple testuje własnego chatbota AI — „na poziomie ChatGPT”

Apple intensywnie pracuje nad własnym chatbotem opartym na sztucznej inteligencji. Jak donosi Bloomberg.

Wewnętrzne testy pokazują, że nowy asystent Apple dorównuje najnowszym wersjom ChatGPT. Początkowo dyrektor ds. AI John Giannandrea był sceptyczny wobec tego kierunku, jednak firma coraz mocniej dąży do tego, by Siri stała się realnym konkurentem dla ChatGPT.

Jeśli chodzi wewnętrzne prace Apple w zakresie chatbotów, niektórzy dyrektorzy naciskają teraz, pomimo wcześniejszej niechęci Giannandrea, aby przekształcić Siri w prawdziwego konkurenta ChatGPT. W tym celu firma zaczęła dyskutować nad pomysłem nadania asystentowi możliwości korzystania z otwartej sieci w celu pobierania i syntetyzowania danych z wielu źródeł. Według pracowników, chatbot, który firma testowała wewnętrznie, poczynił znaczne postępy w ciągu ostatnich sześciu miesięcy, do tego stopnia, że niektórzy dyrektorzy postrzegają go na równi z najnowszymi wersjami ChatGPT.

Apple rozważa również rozszerzenie możliwości asystenta o dostęp do otwartego internetu, co pozwoliłoby mu analizować i łączyć dane z różnych źródeł. Mimo tego, że nie zobaczymy jeszcze nowego Siri na czerwcowej konferencji WWDC, jego debiut spodziewany jest w późniejszym cyklu iOS 19.

Czas pokaże efekty.

#AppleAI #AppleIntelligence #AppleKontraChatGPT #AppleLLM #chatbotApple #chatbotIPhone #iOS19 #SiriChatGPT #SiriPrzyszłość #SiriZAI #sztucznaInteligencjaApple

2025-05-13

iOS 19 wydłuży czas pracy baterii dzięki Apple Intelligence

iOS 19, które Apple zaprezentuje podczas WWDC w czerwcu, wprowadzi nowy tryb zarządzania energią oparty na sztucznej inteligencji.

Funkcja ta będzie analizować sposób korzystania z iPhone’a i inteligentnie ograniczać zużycie energii, co wydłuży czas pracy baterii.

Tryb oszczędzania baterii pojawi się na wszystkich iPhone’ach zgodnych z Apple Intelligence, ale najwięcej zyska nowy iPhone 17 Air. Z powodu cieńszej obudowy ten model będzie miał mniejszą baterię, więc każda oszczędność energii będzie kluczowa.

Na ekranie blokady pojawi się również nowy wskaźnik pokazujący szacowany czas do pełnego naładowania urządzenia.

Nowa funkcja zarządzania energią może okazać się jednym z najważniejszych elementów Apple Intelligence w iOS 19.

WWDC25 – jest oficjalne ogłoszenie dotyczące wydarzenia

#AppleAI #AppleIntelligence #czasPracyNaBaterii #ekranBlokadyIOS19 #iOS19 #iOS19Funkcje #iPhone17Air #nowościIPhone2025 #sztucznaInteligencjaApple #WWDC2025 #wydłużenieBaterii #zarządzanieEnergiąIPhone

2025-05-12

iOS 19: Apple Intelligence może trafić do Kalendarza dzięki przejęciu Mayday

Zgodnie z dokumentacją opublikowaną przez UE, Apple przejęło firmę Mayday Labs Inc. w kwietniu 2024 roku. To właśnie ta akwizycja może stać za pierwszymi funkcjami Apple Intelligence w aplikacji Kalendarz, które pojawią się już w iOS 19.

Mayday to aplikacja, która łączyła kalendarz, listę zadań i inteligentnego asystenta. Jej technologie pozwalały m.in. na:

  • automatyczne planowanie spotkań i zadań,
  • inteligentne dostosowanie harmonogramu do priorytetów użytkownika,
  • dynamiczne zmiany w kalendarzu z uwzględnieniem przesunięć terminów,
  • generowanie linków do planowania spotkań z pomocą AI.

Choć Apple nie potwierdziło jeszcze, że technologia Mayday trafi do Kalendarza, jest to bardzo prawdopodobne — zwłaszcza że aplikacja została oficjalnie zamknięta w maju 2024 roku. Dodatkowo, Kalendarz to jedno z ostatnich większych narzędzi Apple, które nie otrzymało jeszcze funkcji opartych o AI.

Część rozwiązań Mayday może również znaleźć zastosowanie w nowej wersji Siri, która będzie lepiej rozumieć harmonogram użytkownika.

Google Gemini może zostać zintegrowany z iOS 19 – rozmowy trwają

#aiApple #AppleAI #AppleIntelligence #appleKalendarz #appleKalendarzAi #applePrzejęcia #appleSiri #funkcjeIos19 #inteligentnePlanowanie #iOS19 #ios2025 #kalendarzIos #maydayApple #nowościIOS #plotka #Plotki #sztucznaInteligencjaApple

2025-05-11

Apple tworzy nowe procesory dla Maców, serwerów AI i przyszłych urządzeń noszonych

Apple intensywnie pracuje nad nowymi procesorami dla przyszłych komputerów Mac i serwerów sztucznej inteligencji – donosi Bloomberg.

Układy scalone będą napędzać nie tylko kolejne generacje MacBooków, ale również system Apple Intelligence i nowe kategorie urządzeń.

Nowe generacje procesorów Apple Silicon, wg ich nazw kodowych, prezentują się następująco:

  • „Komodo” – prawdopodobnie Apple M6, następca tegorocznego Apple M5
  • „Borneo” – przyszły Apple M7
  • „Sotra” – jeszcze potężniejszy układ dla przyszłych Maców (Apple M7 Extreme)
  • „Baltra” – pierwszy Apple dedykowany serwerom AI, ma być gotowy do 2027 roku

Procesory „Baltra” będą dostępne w wersjach z podwójną, poczwórną i ośmiokrotnie większą liczbą CPU i GPU niż obecny M3 Ultra. Trafią do serwerów Apple przetwarzających zapytania związane z Apple Intelligence.

Apple rozwija też wyspecjalizowane procesory dla:

  • okularów inteligentnych, konkurujących z Meta Ray-Ban (Apple Glasses),
  • AirPods nowej generacji,
  • Apple Watch – z większym naciskiem na wydajność i AI.

Nowe procesory mają zapewnić Apple przewagę w wyścigu AI oraz na rynku urządzeń noszonych i komputerów klasy premium.

Jak Apple projektuje „długowieczność” – technologia, która działa dłużej

#AirPods #Apple #AppleAI #AppleIntelligence #AppleM6 #AppleM7 #AppleWatch #Baltra #Borneo #chipyApple #chipyDlaMac #Komodo #MacBook2025 #okularyApple #plotka #Plotki #serweryAI #smartGlasses #sztucznaInteligencjaApple #układyApple

2025-04-15

Jak Apple rozwija Apple Intelligence z poszanowaniem prywatności użytkowników

Apple rozwija funkcje Apple Intelligence – w tym Siri, narzędzia do pisania czy podsumowań – jednocześnie dbając o prywatność użytkowników. Zamiast zbierać dane osobiste, firma stosuje innowacyjne techniki AI, takie jak prywatność różnicowa (differential privacy) i syntetyczne dane.

Jak to działa?

Apple generuje syntetyczne maile o popularnych tematach (np. zaproszenie na mecz tenisa), tworzy z nich tzw. embeddingi językowe i porównuje je z rzeczywistymi wiadomościami na wybranych iPhone’ach (z włączoną opcją Analityki urządzenia).

iPhone lokalnie wybiera najbardziej pasujący syntetyczny wariant – bez udostępniania treści Apple. Firma analizuje tylko zbiorcze dane, dzięki czemu doskonali modele AI, nie naruszając prywatności.

Aby ulepszyć Apple Intelligence, Apple musi wymyślić opcje ochrony prywatności dla szkolenia AI, a niektóre z metod stosowanych przez firmę zostały przedstawione w nowym poście na ich blogu Machine Learning Research.

Apple tworzy syntetyczne dane, które są reprezentatywne dla zagregowanych trendów w rzeczywistych danych użytkowników i wykorzystuje wykrywanie na urządzeniu do dokonywania porównań, zapewniając firmie wgląd bez konieczności uzyskiwania dostępu do poufnych informacji.

Genmoji i inne funkcje

Podobnie wygląda rozwój Genmoji – Apple analizuje tylko popularne i anonimowe wzorce zapytań, wykluczając unikalne dane mogące identyfikować użytkownika. Firma nie powiązuje danych z Apple ID, IP ani konkretnym urządzeniem.

Apple planuje rozszerzyć te techniki w iOS 18.5, iPadOS 18.5 i macOS Sequoia, by ulepszyć m.in. funkcje Image Playground, Memories Creation, Writing Tools i Visual Intelligence.

#AI #AppleAI2025 #AppleIntelligence #AppleIntelligencePrywatność #AppleIOS185AI #differentialPrivacyApple #GenmojiApple #jakAppleChroniDane #prywatnośćWAI #rozwójSiri #sztucznaInteligencjaApple

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst