Не успела осесть пыль после недавнего хаоса в OpenAI (когда её генеральный директор Сэм Альтман был уволен, но вскоре вернулся на свой пост), эксперты в области ИИ уже начали размышлять о том, как это может быть связано с новой таинственной моделью искусственного интеллекта Q*(произносится как «Q star»).
Само название подразумевает сочетание двух известных техник ИИ: Q-обучения и A*-поиска.
Таким образом, новая модель может быть способна сочетать методы машинного обучения, которыми оснащён ChatGPT, с правилами, запрограммированными человеком. Такой подход может помочь решить проблему «галлюцинаций» у чатботов.
Издание The Information сообщило, что команда под руководством главного научного сотрудника OpenAI Ильи Суцкевера в начале года совершила прорыв, который позволил им создать новую модель, которая может решать базовые математические задачи.
Источники рассказали Reuters, что это событие вызвало внутреннюю бурю в компанию: несколько сотрудников написали письмо совету директоров, в котором предупредили, что Q* может угрожать человечеству.
Способность к математике может показаться не такой уж впечатляющей, но эксперты по ИИ рассказали Business Insider, что это огромный скачок вперёд по сравнению с существующими моделями, которые с трудом обобщают данные за пределами тех, на которых обучались.
Если у ИИ действительно появится способность мыслить логически и рассуждать об абстрактных понятиях (с чем сейчас у него большие проблемы), это будет настоящий прорыв, а математика как раз предполагает такие рассуждения.
К примеру: «Если X больше Y, а Y больше Z, то X больше Z» – это логическое суждение.
Это определённо на шаг ближе к тому, что мы считаем интеллектом, и возможно, приведёт к тому, что ИИ сможет генерировать новые идеи, а не просто повторять ранее изученную информацию.
Эксперты по искусственному интеллекту пока что сходятся в одном: хотя эта модель и может стать большим шагом вперёд для ИИ, вряд ли в скором времени она приведёт к концу света.