【GPT】突然GPT4-Turboが生えてきたので、とりあえず公式ブログを全文和訳

備忘録

朝起きたら、OpenAIから「GPT4-Turbo」なるものがリリースされたというメールが届いてて飛び上がった。
「コンテクストが128k!?(自分の環境では今まで8kしか使えてなかったので、単純にいきなり16倍のコンテクストを扱えるようになった)」「GPT4-8kより安い!?」「2023年4月までのデータに対応!?」などなど、盛り沢山すぎたので、とりあえず一旦腰を据えて。
公式ブログ(https://openai.com/blog/new-models-and-developer-products-announced-at-devday)を、備忘録の意味を込めてGPTに全部和訳していただきました。
(とりあえずGPT-4 Turboは、APIにgpt-4-1106-previewを指定することで使えるようです)。

全文はちょっと長いので、読むのが面倒なときのために要約をまとめておきました。
【GPT】忙しい人のためのGPT4-Turbo(https://laketonem.org/gpt4turbosummary/)

以下のOpenAI DevDayには、公式ブログには無い情報も紹介されているので、確認推奨です。
YoutubeLive(https://youtu.be/U9mJuUkhUzk)
【GPT】OpenAI DevDay, Opening Keynote(日本時間11月7日午前3時開催)の内容まとめ(https://laketonem.org/openaidevdayopeningkeynote/)

以下、GPTによる和訳です。

目次

128Kコンテキストを持つGPT-4 Turbo

128Kコンテキストを持つGPT-4 Turbo
私たちは3月にGPT-4の最初のバージョンをリリースし、7月にはすべての開発者に一般公開しました。今日は、このモデルの次世代であるGPT-4 Turboのプレビューを発表します。

GPT-4 Turboはより高機能で、2023年4月までの世界の出来事について知っています。128kのコンテキストウィンドウを持ち、単一のプロンプトで300ページ以上のテキストに相当する情報を収めることができます。また、パフォーマンスを最適化したため、GPT-4 TurboをGPT-4と比較して入力トークンにつき3倍安く、出力トークンにつき2倍安く提供することができるようになりました。

GPT-4 Turboは、APIにgpt-4-1106-previewを指定することで、すべての有料開発者が試用することができます。私たちは数週間以内に安定した製品準備モデルをリリースする予定です。

関数呼び出しの更新

関数呼び出しを使用すると、アプリの関数や外部APIをモデルに記述し、モデルがJSONオブジェクトに含まれる引数を出力してそれらの関数を呼び出すように賢く選択することができます。今日、複数の関数を単一メッセージで呼び出す機能など、いくつかの改善をリリースしました:ユーザーは、「車の窓を開けてエアコンを切る」といった複数のアクションを要求する1つのメッセージを送信できますが、これは以前はモデルとの複数の往復を必要としていました。

アシスタントAPI

私たちは、開発者が独自のAIアシスタントアプリを構築できるようにするアシスタントAPIを新たに発表しました。このAPIを使用すると、ユーザーは特定の目標を持ってアプリを使うことができ、モデルはその目標を達成するための明確な方向性と優先順位を持ちます。

たとえば、ユーザーがダイエットをしていて、アプリに食事の記録を依頼する場合、アシスタントAPIはモデルにユーザーの目標(減量)を通知し、モデルは食事の記録に加えて減量に役立つアドバイスも提供します。

マルチモーダル機能の追加

私たちは、プラットフォームに新たなマルチモーダル機能を追加しました。これにより、開発者はテキスト、視覚、画像作成(DALL·E 3)、テキストから音声へ(TTS)などの複数のモードでモデルを活用することができます。

DALL·E 3 APIを使用すると、開発者はテキストのプロンプトから直接画像を生成することができ、これらの画像はアプリ内で直接使用したり、デジタルや物理的な製品に統合したりすることができます。また、TTSモデルを使用すると、テキストをリアルタイムで音声に変換し、オーディオコンテンツを簡単に作成することができます。

価格の改定

私たちは今日、プラットフォームの多くの部分で価格を大幅に下げました。これは、コストの低減と効率の向上によるもので、より多くの開発者が私たちのプラットフォームを利用できるようにするための一環です。

モデルカスタマイズの新展開

GPT-4のファインチューニングのための実験的アクセスプログラムを始めています。初期の結果からは、GPT-4のファインチューニングは、GPT-3.5と比べてベースモデルに対する意義ある改善を達成するためには、より多くの作業が必要であることが示されています。GPT-4のファインチューニングの品質と安全性が向上するにつれて、GPT-3.5のファインチューニングを積極的に使用している開発者には、ファインチューニングコンソール内でGPT-4プログラムに申し込むオプションが提示されます。

カスタムモデル

さらにカスタマイズが必要な組織のために(特に極めて大きな独自のデータセットを持つ領域では—最低で数十億のトークンが必要です)、専用のOpenAI研究者チームと連携して、特定のドメインに合わせてカスタムGPT-4をトレーニングする機会を提供するカスタムモデルプログラムも開始します。これには、ドメイン固有の追加プリトレーニングを行うことから、特定のドメインに合わせたカスタムRLポストトレーニングプロセスを実行することまで、モデルトレーニングプロセスの各ステップを変更することが含まれます。組織は自分たちのカスタムモデルに独占的にアクセスできます。既存の企業プライバシーポリシーに沿って、カスタムモデルは他の顧客に提供されたり共有されたりすることなく、他のモデルのトレーニングに使われることもありません。また、カスタムモデルをトレーニングするためにOpenAIに提供された独自のデータは、他の文脈で再利用されることはありません。これは非常に限定された(そして高価な)プログラムですが、興味のある組織はこちらから応募できます。

価格の低下とレート制限の引き上げ

低価格化

開発者に節約を還元するために、プラットフォーム全体の複数の価格を下げます(以下の価格は全て1,000トークンごとに表記されています):

GPT-4 Turbo入力トークンはGPT-4よりも3倍安く、$0.01です。出力トークンは2倍安く$0.03です。
GPT-3.5 Turbo入力トークンは以前の16Kモデルよりも3倍安い$0.003です。出力トークンも3倍安く、$0.009です。
16KモデルはGPT-4よりも6倍安く、入力トークンは$0.002です。出力トークンも6倍安く$0.006です。
レート制限の引き上げ

我々のプラットフォームでの使用量の増加をサポートするために、GPT-4とGPT-3.5の両方のレート制限を引き上げます。これにより、特に企業クライアントが我々のAPIを通じてより多くの要求を同時に処理できるようになります。

OpenAIは、私たちのシステムに組み込まれた著作権保護機能により、お客様を守ることに尽力しています。今日、私たちはさらに一歩踏み出し、「Copyright Shield(著作権シールド)」を導入します。これにより、一般に利用可能なChatGPT Enterpriseの機能や開発者プラットフォームを使用しているお客様が、著作権侵害に関する法的な請求に直面した場合、OpenAIが介入し、発生した費用を負担します。

Whisper v3とConsistency Decoderのリリース

私たちは、Whisper large-v3をリリースしました。これは、各言語でのパフォーマンスが向上した私たちのオープンソースの自動音声認識モデル(ASR)の次バージョンです。また、近い将来、私たちのAPIでWhisper v3をサポートする予定です。

さらに、Consistency Decoderもオープンソース化しています。これはStable Diffusion VAEデコーダの置き換えとして機能するもので、Stable Diffusion 1.0+ VAEと互換性のあるすべての画像を改善し、特にテキスト、顔、直線の描画において顕著な向上をもたらします。

コメント

タイトルとURLをコピーしました