GPT で AI がよりスマートに、より安全に、よりビジュアルに
ChatGPT Plus を購読している場合は、今すぐ試してみることができます。
OpenAI CEOのサム・アルトマン氏が2月に講演。
最もホットな AI テクノロジー基盤が火曜日に大幅にアップグレードされ、OpenAI の GPT-4 リリースが ChatGPT チャットボットのプレミアム バージョンで利用できるようになりました。
GPT-4は、はるかに長いテキスト文字列を生成し、ユーザーが画像を入力すると応答することができ、初期のGPT-3.5で見られた人工知能の落とし穴をより適切に回避するように設計されていると、OpenAIが火曜日に発表した。 たとえば、弁護士が法律実務を行うために合格しなければならない司法試験を受験する場合、GPT-4はスコアの上位10%にランクされるのに対し、GPT-3.5は下位10%にランクされるとAI調査会社は述べた。
GPT は Generative Pretrained Transformer の略で、テキストを独自に生成できること (GPT-4 では最大 25,000 ワード) と、Google が開発したトランスフォーマーと呼ばれる AI テクノロジーを使用していることを表しています。 これは大規模言語モデル (LLM) と呼ばれる AI の一種で、インターネットから収集した膨大なデータでトレーニングされ、パターンを見つけてスタイルを再現するために数学的に学習します。 人間の監督者は GPT を正しい方向に導くために結果を評価し、GPT-4 にはこのフィードバックがさらに含まれています。
OpenAI は長年にわたって GPT を開発者に提供してきましたが、11 月にデビューした ChatGPT は一般の人が使用できる簡単なインターフェイスを提供しました。 それにより、テクノロジーのマイナス面に対する関心、実験、懸念が爆発的に高まりました。 プログラミング コードの生成から試験問題への回答、詩の作成、基本的な事実の提供まで、あらゆることができます。 必ずしも信頼できるわけではないにしても、これは注目に値します。
ChatGPT は無料ですが、需要が高まると機能が低下する可能性があります。 OpenAI は 1 月に、可用性が保証された ChatGPT Plus を月額 20 ドルで提供し始め、現在は GPT-4 基盤を提供しています。 開発者は待機リストにサインアップして、GPT-4 への独自のアクセスを取得できます。
「何気ない会話では、GPT-3.5とGPT-4の区別は微妙な場合がある。タスクの複雑さが十分な閾値に達すると、違いが現れる」とOpenAIは述べた。 「GPT-4 は GPT-3.5 よりも信頼性が高く、創造的で、より微妙な命令を処理できます。」
GPT-4 のもう 1 つの大きな進歩は、テキストや写真を含む入力データを受け入れる機能です。 OpenAIの例では、何十年も前の分厚いコンピュータケーブルが現代のiPhoneの小さなLightningポートに接続されている様子を示すジョークの説明をチャットボットに求めている。 この機能は、GPT がテキストだけではないテストを受けるのにも役立ちますが、ChatGPT Plus ではまだ利用できません。
もう 1 つは、幻覚などの AI の問題を回避するパフォーマンスの向上です。つまり、誤って捏造された応答は、AI が正しく得た答えと同じくらい権威を持って提供されることがよくあります。 また、GPT-4は、間違ったことを言わせようとする試みを阻止するのにも優れており、「内部の敵対的事実評価において、GPT-4は最新のGPT-3.5よりもスコアが40%高い」とOpenAIは述べた。
GPT-4 には、新しい「ステアビリティ」オプションも追加されています。 今日の大規模な言語モデルのユーザーは、多くの場合、適切な種類の応答を得るためにプロンプトに特定の手がかりを埋め込む方法を学習する、精緻な「プロンプト エンジニアリング」に従事する必要があります。 GPT-4 では、ユーザーが特定のトーンやスタイル (プログラミング コードやソクラテス式家庭教師など) を設定できるシステム コマンド オプションが追加されています。「あなたは常にソクラテス式スタイルで応答する家庭教師です。生徒に答えを与えることは決してありませんが、常に答えを与えます。子どもたちが自分で考えることを学べるよう、適切な質問をするように努めてください。」
OpenAIはGPT-4に依然として残る重大な欠点を認めているが、それらを回避する進歩も宣伝している。
「時として、単純な推論上の誤りを犯したり、ユーザーからの明らかな虚偽の発言を受け入れて過度にだまされたりすることがあります。また、生成するコードにセキュリティの脆弱性を持ち込むなど、人間と同じように難しい問題に失敗することもあります。」と OpenAI は述べています。言った。 さらに、「GPT-4 は、間違いを犯す可能性があるときに作業を再確認することを怠り、自信を持って予測を間違ってしまう可能性もあります。」