【OpenAI】Assistants APIとは結局何なのか、何ができるのか

備忘録

日本時間11月7日午前3時開催に開催された、OpenAIの公式イベントOpenAI DevDayで無限すぎになっているので、とりあえずAssistants APIに着目してみました。

関連記事
【GPT】突然GPT4-Turboが生えてきたので、とりあえず公式ブログを全文和訳
【GPT】OpenAI DevDay, Opening Keynote(日本時間11月7日午前3時開催)の内容まとめ

まずは公式ドキュメント(https://platform.openai.com/docs/assistants/overview)を眺めてみるのが一番です。

んにゃぴ・・・よくわかんなかったです。なので、毎度のごとく和訳・要約をGPT様にやってもらい咀嚼した結果。

要するに、

・これまでChatGPTで使えるようになってきた様々なツールをカスタマイズして組み合わせられる。
・これまではGPTのAPIなどでは都度会話履歴をリクエストで渡すように書く必要があったが、それらの機能が含まれるようになった。
・まだbeta
・ユーザー向けというよりは「これを使って便利なものを作りましょう」という感じで、開発者向け

ということだけ抑えておけばいいのではないのかな、と感じました。
逆に言うと、できることが多岐に渡りすぎて、上記以外の「できること」を書くと、それこそOpen AIの沢山あるAPIの全部の機能を全部羅列して書くことになってしまうということなんじゃないかなと。

ファイルの読み書きも、コードの実行も、イラストとか音声の生成も、カスタマイズ次第でAssistants APIで実現できます、という感じ。

一応以下にGPTに要約してもらった内容を貼っておきます。

Assistants APIは、OpenAIが提供するツール群を活用し、独自のアプリケーション内で動作するAIアシスタントを作成できる機能です。このAPIにより、開発者はプログラミングの自動化、データ処理、顧客サポートなど、多岐にわたる応用が可能になります。

たとえば、数学の問題を解決するパーソナルチューターや、顧客の質問に答えるサポートボットの構築が考えられます。また、ユーザーがアップロードしたデータを解析し、それに基づいて可視化を作成するデータアナリストのようなアシスタントも作成可能です。

このAPIの利点は、アシスタントに独自の指示を与えることで、ユーザーのニーズに合わせた柔軟な応答が設計できる点にあります。例えば、数学チューターとして定義されたアシスタントは、数学の問題を解くためにコードを書いて実行することができます。また、顧客サポートボットは、提供された製品情報や文書から適切な回答を検索することが可能です。

開発者は、GPT-3.5やGPT-4モデルをはじめとする多様なモデルを指定することができ、細かい調整やチューニングによってアシスタントのパーソナリティをカスタマイズすることもできます。更に、コードインタプリター、情報検索、関数呼び出しなどのツールを利用して、アシスタントの機能を拡張することも可能です。

Assistants APIを使う一連の流れは、以下の通りです:

アシスタントを作成し、その行動指針や使用するモデルを定義します。
ユーザーが会話を始めると、それぞれのユーザーに対してスレッドを作成します。
ユーザーからのメッセージがスレッドに追加されます。
アシスタントをスレッド上で実行し、ユーザーの問いに答えます。

このAPIはベータ版として提供されており、今後も機能の追加が予定されています。開発者はこれを利用して、自分たちのニーズに合ったAIアシスタントを簡単に作成し、ユーザーの経験を向上させることができるでしょう。

コメント

タイトルとURLをコピーしました