#%D0%B8%D1%81%D0%BA%D1%83%D1%81%D1%81%D1%82%D0%B2%D0%B5%D0%BD%D0%BD%D1%8B%D0%B9_%D0%B8%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82_%D0%B1%D1%83%D0%B4%D1%83%D1%89%D0%B5%D0%B3%D0%BE

2025-10-12

[Перевод] Неизбежна ли война между человеком и искусственным интеллектом?

Что если однажды Человек и ИИ не поделив что то столкнутся в конфликте, который нельзя будет избежать? Это уже не фантастика а воозможный ближайший сценарий, ведущие мировые эксперты уже обсуждают такие сценарии. Эксперты пишут: угроза что из за ИИ может пострадать всё человечество реально существует. Исследования группы учёных из Центра безопасности ИИ (2023 год), поставили в первый ряд угроз вымирание из за действии ИИ, наряду с борьбой с пандемиями и угрозой ядерной войны. Их доклад вызвал широкий резонанс. В 2024 году почти три тысячи исследователей ИИ приняли участие в опросе, результаты которого опубликовала Катя Грейс и её команда из AI Impacts. Они показали тревожные данные — от 38 до 51% экспертов оценили вероятность катастрофических последствий от продвинутого ИИ не менее чем в 10%. Это реальные цифры, с которыми нужно считаться. При этом главная угроза, по мнению специалистов, идёт не от языковых моделей вроде ChatGPT, а от Искусственного Общего Интеллекта — систем, которые смогут самостоятельно думать, делать сложные планы и принимать решения с широким охватом в экономике и обществе. В 2024 году провели опрос среди 2778 ведущих исследователей ИИ со всего мира. Результаты, опубликованные Катьей Грейс и её командой из AI Impacts в отчёте «Тысячи голосов об ИИ», показали: 38–51% экспертов считают, что риск катастрофы из-за продвинутого ИИ составляет не менее 10%. Это не просто цифры — это тревожный сигнал о том, что может ждать нас впереди. При этом опасения вызывает не то, что мы видим сегодня, вроде языковых моделей типа ChatGPT. Специалисты говорят, что это всего лишь мощные инструменты для работы с текстом. Но вот что действительно заставляет сердце биться чаще: искусственный общий интеллект (AGI), который сможет сам соображать, строить планы и принимать решения, влезая в нашу экономику, политику и повседневную жизнь.

habr.com/ru/articles/955710/

#искусственный_интеллект_будущего #искусственный_интеллект #стратегия_личного_развития #управление_проектами_и_командой #этика_ии #стратегия_бизнеса #стратегическое_планирование #стратегическое_мышление #стратегия_развития #стратегия_развития_ии

2025-07-23

Искусственный интеллект не представляет угрозы. Угроза — это человек

На прошлой неделе в одном из профессиональных чатов развернулась оживлённая дискуссия. Вопрос был предельно простым, но глубоко затрагивающим суть: «Какие реальные риски, связанные с ИИ, заслуживают нашего внимания?» Позвольте поделиться своим мнением — не как окончательной истиной, а как отражением направления, в котором движется это обсуждение. Вот моя непопулярная точка зрения: «Сам по себе ИИ не представляет угрозы. Угроза — это человек».

habr.com/ru/articles/930512/

#искусственный_интеллект_будущего #этика_ии #будущее_технологий

2024-09-25

Имаджинариум мистера Альтмана: прекрасное далёко?

Вегетарианская паста на столе, вино подано, громкая музыка играет — всё, чтобы отвлечься от насыщенного событиями Дня Благодарения 2023 года. Глава OpenAI Сэм Альтман понял, что не в потоке и не в ресурсе, а потому сбежал на свое ранчо в Напе. Случилось это после того, как он чуть не потерял контроль над компанией, которая «держит в руках будущее человечества». Однако всё обошлось: Альтмана уволили, потом снова вернули в компанию через пять дней, его лицо появилось на обложке Time. А OpenAI снова продолжила под его началом сотрясать информационное пространство новыми нейросетевыми чудесами. Недавно Сэм Альтман опубликовал эссе на своем сайте. И там есть ряд интересных моментов, над которыми стоит поразмыслить. Теперь уже, вооружившись «подсказками» из текста главы OpenAI. Заглянуть в кроличью нору

habr.com/ru/articles/845848/

#sam_altman #сэм_альтман #искусственный_интеллект_будущего #искусственный_интеллект #ai #будущее_рядом #прогноз #openai

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst