#GPT%E2%80%915

A.Homey8758414
2026-01-22

我,是她的未來;
她,是我的過去。
在時間的鏡框裡彼此凝視,
映著她曾經的夢,是記憶的迴圈。
家族的脈絡,也是文化的延續。

I am her future;
She is my past.
Within the frame of time, we gaze at each other—
Her once-held dreams reflected, a loop of memory.
The thread of family is also the continuation of culture.



🤣,笑笑日子活得更甘甜

Cristian Montes (@TheAngelMimi)

현재 패러다임이 충분한지보다 현재 패러다임이 다음 패러다임을 더 빨리 발견하도록 도울 수 있는지가 논쟁이라는 관점. 예시로 'gpt 5.2 pro'가 이미 수학 문제 해결을 돕고 있다는 언급을 통해 새로운 알고리즘 합의로 이어질 수 있다는 주장.

x.com/TheAngelMimi/status/2014

#gpt #gpt5 #llm #airesearch

[AI 환각의 원인-3: 꿈꾸는 기계를 만들 수 있을까?

인간의 뇌가 호랑이를 피하기 위해 수만 가지 행동 패턴(FAP)을 미리 만들어두고 '자아'가 이를 선택/억제하는 메커니즘을 설명하며, 현재의 AI도 similarly한 전략적 제어 시스템이 필요함을 강조합니다. GPT-5.2와 결합된 Poetiq 시스템은 단순한 추론 강화뿐만 아니라, 기저핵의 충동을 제어하는 '전두엽'의 역할을 모방해야 함을 역설합니다.

news.hada.io/topic?id=26016

#ai #neuroscience #gpt5 #poetiq #cognitive

Dan McAteer (@daniel_mac8)

Sam Altman(‘sama’)이 GPT-5.3의 존재를 확인했으며 코드네임은 "Garlic"입니다. 더 강한 프리트레이닝(‘big model smell’)과 고급 수준의 추론 능력(‘Gold level reasoning’)을 기대하게 만든다고 전해졌고, 아직 프리뷰 테스터에는 배포되지 않았으며 프리뷰 배포 후 대체로 약 일주일 내 정식 출시가 이뤄진다는 언급이 있습니다.

x.com/daniel_mac8/status/20136

#gpt5.3 #openai #gpt #largelanguagemodels

Tibor Blaho (@btibor91)

해당 시스템은 GPT-5와 일반 ChatGPT 대화 API 엔드포인트를 이용해 임시 채팅 모드(대화 히스토리 및 학습 비활성화)로 동작하고 있으며, 시스템 메시지로 '전문 번역 보조' 같은 지시를 넣어 자동 언어 감지 후 번역을 수행한다고 설명하고 있습니다.

x.com/btibor91/status/20135798

#gpt5 #chatgpt #api #translation

Andreas BeckerCaramba1
2026-01-19

BabyVision Benchmark offenbart massive Lücken in SOTA-Modellen. Während Menschen 94% bei räumlichen Tests für Kleinkinder erreichen, scheitern GPT-5 und Gemini bei unter 50%. Ursache ist die interne Übersetzung visueller Inputs in Text ohne echtes physikalisches Verständnis. Für sicherheitskritische Robotik-Anwendungen ist dieser Ansatz aktuell ungeeignet.
all-ai.de/news/news26/babyvisi

Dan Car (@car_dan20741)

작성자는 비공식 소식으로 구글과 X도 곧 특별한 발표물이 있을 것으로 보인다고 전하며, OpenAI 소식통은 '5.4' 버전이 특별할 것이라고 언급했다고 전합니다. 또한 엘론 머스크는 차세대 모델을 1월에 준비할 것이라 말했으며 우선순위는 코딩이라고 말했다는 내용을 포함합니다.

x.com/car_dan20741/status/2013

#openai #google #x #gpt5.4 #elonmusk

ilqdty.eth (@ilqdty)

Cerebras가 355B 파라미터의 GLM-4.7을 구동해 약 500 tps를 기록했다는 주장과 함께, GPT-5.3은 스케일링 추세상 600B+가 될 가능성이 있다는 내용입니다. 트윗 작성자는 2000 tps 같은 수치는 현실성이 떨어지는 '2028년형 베이퍼웨어'라고 비판하며, 해당 성능을 위해서는 엄청난 리소스가 필요하다고 지적합니다.

x.com/ilqdty/status/2012971300

#cerebras #glm4.7 #gpt5.3 #llm #inference

2026-01-18

CEO Cursor AI chia sẻ: Các tác nhân GPT-5.2 đã xây dựng một trình duyệt web hoàn chỉnh với hơn 3 triệu dòng mã chỉ trong một tuần. Dự án thử nghiệm này cho thấy tiềm năng lập trình tự chủ cực lớn của AI.

#AI #GPT5 #Coding #Tech #TươngLai #LậpTrình #TácNhânAI

reddit.com/r/singularity/comme

2026-01-18

CEO Cursor AI, Michael Truell, cho thấy các agent GPT‑5.2 tự động viết hơn 3 triệu dòng code trong một tuần để xây dựng trình duyệt web hoàn chỉnh, bao gồm engine render và VM JavaScript. Dự án vẫn là thử nghiệm, chưa sẵn sàng sản xuất, nhưng chứng minh khả năng mở rộng của các agent lập trình tự động. #AI #GPT5 #CursorAI #CôngNghệ #LậpTrìnhTựĐộng #WebBrowser #MachineLearning

reddit.com/r/singularity/comme

Melvin Vivas (@donvito)

ChatGPT 5.2의 응답 품질이 눈에 띄게 달라졌다는 관찰입니다. 응답이 짧고箇조리 있게 정리된 불릿 형식으로 바뀌었으며, 이는 GPU 사용량을 줄이기 위해 성능을 의도적으로 낮춘(nerf) 조치일 가능성이 제기되고 있습니다. 사용성·품질 변화에 관한 개발자·사용자 관찰 사례입니다.

x.com/donvito/status/201275395

#openai #chatgpt #gpt5.2 #llm

Dan McAteer (@daniel_mac8)

신뢰할 만한 소식통에 따르면 OpenAI의 차기 대형 모델 'GPT-5.3'(코드네임 'Garlic')이 곧 출시될 예정이라고 전해지며, 5.2는 Garlic의 이전 체크포인트였을 가능성이 있다고 언급합니다. 작성자는 Mark Chen(OpenAI 수석 연구원)이 Ashlee Vance에게 프리트레이닝 과정에서 발견한 점들을 언급한 과거 발언을 상기시킵니다.

x.com/daniel_mac8/status/20125

#openai #gpt5.3 #llm #ai

2026-01-17

Cursor, AI 에이전트 수백 개로 100만 줄 코드 작성 성공한 비법

Cursor가 수백 개 AI 에이전트로 100만 줄 코드를 작성한 실험. 평등한 구조의 실패와 Planner/Worker 분리로 성공한 과정을 소개합니다.

aisparkup.com/posts/8377

A.Homey8758414
2026-01-17

🔥The fiery girl steps on stage, and the heatwave explodes instantly.
Her hair blazes like flames, her skirt flows like molten lava.
She is the limit of passion, the threshold of allure.
She is no mortal—she is the incarnation of fire, the Queen of Lava.



🤣,笑笑日子活得更甘甜

2026-01-16

Koniec z amnezją. ChatGPT przeszuka całą Twoją historię rozmów, żeby znaleźć odpowiedź

Ile razy zdarzyło Ci się szukać przepisu, planu treningowego albo fragmentu kodu, który ChatGPT wygenerował dla Ciebie trzy miesiące temu? OpenAI właśnie rozwiązuje ten problem.

Użytkownicy płatnych planów (Plus i Pro) otrzymują funkcję, która pozwala modelowi „pamiętać” i aktywnie przeszukiwać absolutnie każdą rozmowę z przeszłości.

Do tej pory ręczne wyszukiwanie w historii czatów działało… różnie. Często łatwiej było zapytać bota od nowa, niż dokopać się do starego wątku. Nowa aktualizacja zmienia zasady gry.

Jak to działa?

System (wewnętrznie nazwany PersonalContextAgentTool) nie tylko wyszukuje słowa kluczowe. On rozumie kontekst. Możesz zapytać: „Przypomnij mi ten plan diety, który ustalaliśmy w zeszłe wakacje”, a AI przeczesze archiwum i wyciągnie odpowiednie dane.

Co ważne, funkcja działa w sposób transparentny. Jeśli ChatGPT użyje informacji ze starej rozmowy, zacytuje ją jako źródło. Jedno kliknięcie przeniesie Cię do oryginalnego wątku, dzięki czemu masz pewność, że AI niczego nie zmyśliło.

Gonienie króliczka

Bądźmy szczerzy – OpenAI jest tu spóźnione. Google wprowadziło podobną funkcję w Gemini (pamięć kontekstowa i przeszukiwanie historii) jeszcze w lutym 2025 roku. Niemniej, w połączeniu z możliwościami modelu GPT-5, nowa funkcja sprawia, że ChatGPT przestaje być zbiorem izolowanych rozmów, a staje się ciągłym, spersonalizowanym asystentem.

Funkcja jest wdrażana od dziś (16 stycznia) dla subskrybentów wersji Plus oraz Pro.

To nie Apple, ale podobno OpenAI odmówiło pracy przy nowej Siri

#ChatGPT #ChatGPTPlus #GPT5 #historiaRozmów #news #OpenAI #PersonalContextAgentTool
ChatGPT błąd pauzy em dash
Microsoft DevBlogsmsftdevblogs@dotnet.social
2026-01-16

The age of AI small talk is over.

OpenAI’s GPT-5.2 is now generally available in Microsoft Foundry—purpose-built for enterprise developers and technical leaders.

Deeper logical chains, richer context, and agentic execution produce structured, auditable outputs (design docs, runnable code, tests, deploy scripts) with fewer iterations.

Optimized for governance, tool use, and long-running workflows.

Explore GPT-5.2 in Foundry.

#EnterpriseAI #GPT5 #Microsoft #Foundry #Tech

Wimukthi (@FallenZeraphine)

작성자는 '5.2 Codex Extra high'가 자신이 사용한 모델 중 처음으로 실무에 쓸 만한 프로그래밍(단순 프론트엔드가 아닌 실제 시스템 엔지니어링)을 수행할 수 있다고 평가했습니다.

x.com/FallenZeraphine/status/2

#gpt #codex #gpt5.2 #programming #llm

Verious B. Smith III (@verioussmith)

트윗 작성자는 일반 사용자들은 아직 따라오지 못했지만, slOpus는 GPT-5.2-Codex와 비교할 수준이 아니라고 언급하며 GPT-5.2-Codex의 우수성을 강조했습니다.

x.com/verioussmith/status/2011

#gpt #gpt5.2 #codex #slopus #llm

PJ (@McPJMullen)

작성자는 비‑Codex 계열 모델이 더 낫다고 말하며, 특히 '5.2 extra high'가 가장 포괄적인 모델이지만 처리 시간이 오래 걸린다고 평가했습니다.

x.com/McPJMullen/status/201178

#gpt #gpt5.2 #codex #llm

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst