Введение в GOAT.AI - Task to AI Agents
Целенаправленная оркестровка задач агента. По сути, агенты ИИ будут общаться друг с другом, чтобы выполнить вашу задачу.
Пример: «выберите лучший день в следующем месяце для полумарафона на 20 км». ИИ начнет сотрудничать: агент погоды получает прогнозы, агент веб-поиска определяет оптимальные условия эксплуатации, а агент Wolfram вычисляет «лучший день». Это искусство подключенного искусственного интеллекта, упрощающего сложные задачи.
LLM как центральная ЭВМ для автономных агентов — интригующая концепция. Такие демонстрации, как AutoGPT, GPT-Engineer и BabyAGI, служат простой иллюстрацией этой идеи. Потенциал программ LLM выходит за рамки создания или завершения хорошо написанных копий, рассказов, эссе и программ; их можно представить как мощных специалистов по решению общих задач, и именно этого мы стремимся достичь, создавая Целеориентированную оркестровку агентской оперативной группы (GOAT.AI).
Чтобы целенаправленная оркестровка системы оперативной группы агентов LLM существовала и функционировала должным образом, три основных основных компонента системы должны функционировать должным образом.
- Обзор
1) Планирование
- Подцель и декомпозиция: агент разбивает большие задачи на более мелкие, управляемые подцели, что упрощает эффективное выполнение сложных заданий.
- Рефлексия и совершенствование: агент занимается самокритикой и саморефлексией прошлых действий, учится на ошибках и совершенствует подходы к будущим шагам, тем самым повышая общее качество результатов.
2) Память
- Кратковременная память: относится к объему текста, который модель может обработать, прежде чем ответить без какого-либо ухудшения качества. В текущем состоянии LLM могут предоставлять ответы без снижения качества примерно по 128 тысячам токенов.
- Долговременная память: позволяет агенту хранить и вызывать неограниченное количество информации для контекста в течение длительных периодов времени. Это часто достигается за счет использования внешнего хранилища векторов для эффективных систем RAG.
3) Пространство действия
— Агент приобретает возможность вызывать внешние API для получения дополнительной информации, которой нет в весах модели (которые часто сложно изменить после предварительного обучения). Это включает в себя доступ к текущей информации, выполнение кода, доступ к проприетарным источникам информации и, что наиболее важно: вызов других агентов для получения информации.
- Пространство действий охватывает также действия, которые не направлены на получение чего-либо, а предполагают выполнение конкретных действий и получение результирующего результата. Примеры таких действий включают отправку электронных писем, запуск приложений, открытие входных дверей и многое другое. Эти действия обычно выполняются через различные API. Кроме того, важно отметить, что агенты также могут вызывать других агентов для событий, к которым у них есть доступ.
Пример: «выберите лучший день в следующем месяце для полумарафона на 20 км». ИИ начнет сотрудничать: агент погоды получает прогнозы, агент веб-поиска определяет оптимальные условия эксплуатации, а агент Wolfram вычисляет «лучший день». Это искусство подключенного искусственного интеллекта, упрощающего сложные задачи.
LLM как центральная ЭВМ для автономных агентов — интригующая концепция. Такие демонстрации, как AutoGPT, GPT-Engineer и BabyAGI, служат простой иллюстрацией этой идеи. Потенциал программ LLM выходит за рамки создания или завершения хорошо написанных копий, рассказов, эссе и программ; их можно представить как мощных специалистов по решению общих задач, и именно этого мы стремимся достичь, создавая Целеориентированную оркестровку агентской оперативной группы (GOAT.AI).
Чтобы целенаправленная оркестровка системы оперативной группы агентов LLM существовала и функционировала должным образом, три основных основных компонента системы должны функционировать должным образом.
- Обзор
1) Планирование
- Подцель и декомпозиция: агент разбивает большие задачи на более мелкие, управляемые подцели, что упрощает эффективное выполнение сложных заданий.
- Рефлексия и совершенствование: агент занимается самокритикой и саморефлексией прошлых действий, учится на ошибках и совершенствует подходы к будущим шагам, тем самым повышая общее качество результатов.
2) Память
- Кратковременная память: относится к объему текста, который модель может обработать, прежде чем ответить без какого-либо ухудшения качества. В текущем состоянии LLM могут предоставлять ответы без снижения качества примерно по 128 тысячам токенов.
- Долговременная память: позволяет агенту хранить и вызывать неограниченное количество информации для контекста в течение длительных периодов времени. Это часто достигается за счет использования внешнего хранилища векторов для эффективных систем RAG.
3) Пространство действия
— Агент приобретает возможность вызывать внешние API для получения дополнительной информации, которой нет в весах модели (которые часто сложно изменить после предварительного обучения). Это включает в себя доступ к текущей информации, выполнение кода, доступ к проприетарным источникам информации и, что наиболее важно: вызов других агентов для получения информации.
- Пространство действий охватывает также действия, которые не направлены на получение чего-либо, а предполагают выполнение конкретных действий и получение результирующего результата. Примеры таких действий включают отправку электронных писем, запуск приложений, открытие входных дверей и многое другое. Эти действия обычно выполняются через различные API. Кроме того, важно отметить, что агенты также могут вызывать других агентов для событий, к которым у них есть доступ.
Читать ещё