AGI – как огонь: глава Alphabet предупреждает о двойственной природе мощного ИИ

AGI – как огонь: глава Alphabet предупреждает о двойственной природе мощного ИИ

Способность машин рассуждать переводит дискуссию из теоретической плоскости в область реальных рисков.

image

Развитие искусственного интеллекта стремительно приближается к новому этапу — созданию мощных систем, способных к осмысленному решению задач, выходящему за рамки статистического предсказания. Если ещё несколько лет назад ИИ ограничивался обработкой данных и прогнозированием на основе шаблонов, то теперь речь идёт о настоящем логическом рассуждении, приближающем технологии к уровню искусственного общего интеллекта (AGI).

Переломный момент в развитии ИИ произошёл в ноябре 2022 года с появлением ChatGPT, основанного на модели GPT-3.5. Спустя всего полгода OpenAI представила GPT-4, продемонстрировав первые задатки AGI, что дало новый импульс разработке всё более сложных ИИ-систем. С тех пор компании по всему миру ускоренно разрабатывают новые архитектуры, а понятие AGI из области теоретических обсуждений превращается в реальную технологическую цель.

Один из ведущих исследователей ИИ Дарио Амодеи, основатель компании Anthropic и бывший вице-президент OpenAI, оценивает вероятность появления ИИ, превосходящего человека почти во всех когнитивных задачах, в 70–80% к 2026–2027 годам. В качестве подтверждения он приводит недавний прогресс в разработке так называемых «размышляющих моделей», использующих метод chain-of-thought (цепочку рассуждений). Такие модели, как OpenAI o3 и DeepSeek, не просто обрабатывают данные, а строят логические последовательности, решая задачи так, как это делает человек.

Прорывные ИИ-агенты, такие как Deep Research от OpenAI и Co-Scientist от Google, меняют подход к исследовательской работе. Например, задача, на выполнение которой у человека ушло бы несколько дней, теперь решается за считанные минуты. Это свидетельствует о радикальном изменении роли ИИ: от инструмента анализа данных к полноценному помощнику в науке, бизнесе и технологиях.

Однако не все исследователи разделяют оптимизм по поводу скорого появления AGI. Известный критик ИИ Гэри Маркус указывает на фундаментальные ограничения глубокого обучения и LLM-моделей, сомневаясь в их способности достичь уровня AGI. В то же время эксперты, как Амодеи, предлагают избегать самого термина AGI, заменяя его более точным «мощный ИИ» — подчёркивая не фантастический, а практический аспект технологий.

Вопрос, как управлять этой новой мощью, остаётся открытым. Глава Alphabet Сундар Пичаи сравнил ИИ с огнём — инструментом, способным как на благо, так и на разрушение. Возможные сценарии развития технологии варьируются от оптимистического (массовый рост благосостояния, персонализированная медицина и автоматизация рутинных процессов) до крайне негативного ( угроза безопасности, потеря контроля над системами, экономические потрясения).

Пока ясно одно: ИИ продолжает стремительно развиваться, и его влияние на общество станет всё более значительным. Каким будет это влияние — зависит не только от разработчиков технологий, но и от решений, принимаемых бизнесом, государствами и обществом. Без комплексного подхода к регулированию и управлению ИИ возможные риски могут выйти из-под контроля, и тогда человечеству придётся справляться с последствиями технологического скачка, к которому оно может оказаться не готово.

Революция в песочнице: Превращаем PT Sandbox в идеальный инструмент безопасности

25 марта в 11:00 — эксклюзивный мастер-класс по созданию идеальных правил фильтрации в PT Sandbox. Готовые решения для максимальной производительности.

Реклама. АО «Позитив Текнолоджиз», ИНН 7718668887