Незадолго до увольнения Сэма Альтмана исследователи OpenAI предупредили совет директоров о большом открытии в области ИИ, которое «может угрожать человечеству». Об этом сообщает Reuters со ссылкой на анонимные источники.
Собеседники издания назвали письмо сотрудников одним из пунктов в длинном списке претензий правления, приведших к снятию Альтмана с должности CEO. В частности, руководство опасалось коммерциализации технологии до определения ее рисков.
Во внутреннем сообщении совет директоров OpenAI признал существование так называемого проекта Q* (произносится как Q-Star). По мнению многих сотрудников, разработка может стать прорывом для создания общего искусственного интеллекта (AGI).
OpenAI и сам Альтман определяют AGI как автономные системы, которые превосходят людей в большинстве рутинных и вычислительных процессов.
https://forklog.com/news/ai/glava-openai-raskryl-plany-po-sozdaniyu-agi-i-detali-gpt-5
Q* пока умеет решать только простые математические задачи для начальных классов, используя при этом огромное количество ресурсов. Однако в компании уверены, что технология обладает большими перспективами.
По мнению экспертов OpenAI, математика — передовой рубеж развития генеративного ИИ. В настоящее время нейросети способны «предугадывать» ответ на поставленный вопрос и пробовать его подобрать с некоторой вероятностью ошибки.
Математические задачи требуют точного ответа, поэтому развитие в данном направлении подразумевает улучшение способностей искусственного интеллекта к рассуждению.
В отличие от калькулятора, который выполняет ограниченное количество операций, AGI может обобщать, учиться и понимать, считают в OpenAI.
По словам одного из источников, в компании также существовала специальная группа, сформированная из команд Code Gen и Math Gen. Она якобы изучала оптимизацию и возможности «сознания» ИИ-моделей.
Напомним, спустя четыре дня после увольнения Альтмана OpenAI объявила о его возвращении на должность CEO и смене состава совета директоров.