Новая эра в развитии ИИ может переопределить будущее человечества.
Недавно стало известно о значимом открытии в области искусственного интеллекта (ИИ), сделанном командой исследователей OpenAI. Это открытие потенциально может изменить понимание и возможности ИИ во всём мире.
Согласно информации издания Reuters, накануне временного отстранения Сэма Альтмана с поста генерального директора OpenAI, группа исследователей компании направила письмо совету директоров, предупреждая о новом мощном алгоритме ИИ, который мог бы представлять реальную угрозу для человечества.
Этот алгоритм, известный как «Q*» (произносится как «Q-Star»), может стать прорывом в поисках общего искусственного интеллекта (AGI), который гипотетически должен превосходить человеческий интеллект.
Несмотря на то, что Q* пока выполняет математические задачи на уровне школьника, его успехи вызвали большой оптимизм и одновременно опасения среди исследователей. В своём письме к совету директоров исследователи указали на потенциальную опасность нового ИИ, не уточнив конкретных проблем безопасности.
В исследовательском сообществе уже долгое время идут дискуссии о рисках, которые могут представлять суперинтеллектуальные машины. В частности, если такие машины решат, что уничтожение человечества соответствует их интересам, то обязательно попытаются реализовать такой сценарий. Особенно, если будут наделены необходимым уровнем полномочий.
Сам Альтман уже выражал уверенность в скором достижении AGI на недавней встрече мировых лидеров в области искусственного интеллекта в Сан-Франциско. А буквально на следующий день после его выступления совет директоров уволил Альтмана.
Неужели это и стало причиной настоящей «Игры престолов» , которая недавно развернулась на глазах у всего мира? Действительно ли у OpenAI есть ключ к суперинтеллекту, и стоит ли его бояться простым интернет-пользователям? Пока что вопросов куда больше, чем ответов…
Большой взрыв знаний каждый день в вашем телефоне