OpenAI、音声と視覚の理解に強みを持つ新モデル「GPT-4o」発表。無料版でも利用可能
最終更新日:2024/05/31
OpenAIは13日(米国時間)に、新たなAIモデル「GPT-4o」を発表しました。高速処理で音声・画像・映像を組み合わせた活用がChatGPTで利用可能になります。
このAIニュースのポイント
- 視覚と音声の理解力が際立つGPT-4o。多言語対応や画像・映像を認識したやり取りが可能に
- 様々なベンチマークで既存モデルや競合モデルを上回る性能を発揮
- 無料ユーザーも利用可能で、有料および企業向けプランは制限緩和で効率敵に利用可能
OpenAIは13日(米国時間)、最新のAIモデル「GPT-4o」を発表しました。テキストはもちろん、音声・画像・映像をシームレスに扱い、自然なテンポでのリアルタイム音声会話が可能になりました。
「GPT-4o」は既存モデルと比較して、特に視覚と音声の理解向上が際立っています。音声入力は最短232ミリ秒、平均320ミリ秒で応答可能で、人間の会話の応答時間とほぼ同じとされます。また、会話の割り込みや背景ノイズ、複数の声、声のトーンなど、複雑な対話の要素を理解できるようになりました。
多言語間も高速に理解・応答が可能で、デモでは英語で話した内容をGPT-4oがリアルタイムでイタリア語に翻訳しています。
テキストにおいても、「GPT-4o」は英語とコードでGPT-4 Turboの性能に匹敵し、非英語言語のテキストも大幅に改善されています。開発者向けのAPIはGPT-4 Turboと比べて2倍速く、50%安価になり、Rate limitが5倍に引き上げられました。
また、macOS用で新たにデスクトップアプリとして提供が開始されます。発表会では、アプリ内で撮影したスクリーンショットを用いて、コードのレビューや、気温推移グラフの画像を理解し解説する実演が行われました。
「GPT-4o」は無料ユーザーでも利用可能です。有料ユーザーは、時間当たりのメッセージやり取り可能回数が無料ユーザーに比べて5倍に緩和され、企業向けのTeamやEnterpriseユーザーはさらに制限が緩和されます。
音声に関する機能は、これから数週間以内にChatGPT Plus内のアルファ版としてリリースされます。動画認識機能も同様に、段階的にサポートが開始される予定です。
出典:OpenAI
業務の課題解決に繋がる最新DX・情報をお届けいたします。
メールマガジンの配信をご希望の方は、下記フォームよりご登録ください。登録無料です。
AI・人工知能記事カテゴリ一覧
AI・人工知能サービス
- 生成AI
- 画像生成AI
- ChatGPT
- AI研究開発
- LLM
- DX推進
- おすすめAI企業
- チャットボット
- ボイスボット
- 音声認識・翻訳・通訳
- 画像認識・画像解析
- 顔認証
- AI-OCR
- 外観検査
- 異常検知・予知保全
- 自然言語処理-NLP-
- 検索システム
- 感情認識・感情解析
- AIモデル作成
- 需要予測・ダイナミックプライシング
- AI人材育成・教育
- アノテーション
- AI学習データ作成
- エッジAI
- IoT
- JDLA
- G検定
- E資格
- PoC検証
- RPAツール
- Salesforce Einstein
- Watson(ワトソン)
- Web接客ツール
- サプライチェーン
- メタバース
- AR・VR・デジタルツイン
- MI
- スマートファクトリー
- データ活用・分析
- 機械学習
- ディープラーニング
- 強化学習
- テレワーク・リモートワーク
- マーケテイングオートメーション・MAツール
- マッチング
- レコメンド
- ロボット
- 予測
- 広告・クリエイティブ
- 営業支援・インサイドセールス
- 省人化
- 議事録自動作成
- 配送ルート最適化
- 非接触AI
業態業種別AI導入活用事例
今注目のカテゴリー
AI製品・ソリューションの掲載を
希望される企業様はこちら