人工知能 | オペラブラウザが主要なAIモデルをローカルダウンロードおよびオフライン使用のために統合

robot
概要作成中

主要なブラウザ会社であるOperaは、約50のモデルファミリーからの150のローカルLLM (Large Language Model)バリアントの実験的なサポートをOpera Oneブラウザの開発者ストリームに追加することを発表しました。

LLMとは、OpenAIによって開発されたGPT (生成的事前学習トランスフォーマー)モデルなどの高度な人工知能システムを指し、大量のテキストデータを学習して人間のようなテキストを理解し生成する能力を持っています。これらは、テキスト生成、翻訳、要約など、さまざまな自然言語処理タスクに使用されます。

オペラによると、これは主要なブラウザから組み込み機能を通じてローカルLLMに簡単にアクセスし、管理できる初めての機会です。ローカルAIモデルは、オペラのオンラインAria AIサービスに対する補完的な追加です。サポートされているローカルLLMには、次のものが含まれます:

* メタのラマ

  • ビクーニャ
  • GoogleのGemma
  • Mistral AIのMixtral

「この方法でローカルLLMを導入することで、オペラは急速に発展するローカルAI領域内での体験やノウハウを構築する方法を探り始めることができます。」 とオペラのブラウザおよびゲーム担当EVP、クリスティアン・コロンドラは述べました。

ローカル大規模言語モデルを使用することで、ユーザーのデータはデバイス上にローカルに保存され、オペラはサーバーに情報を送信する必要なく生成AIを使用できると述べました。

人工知能の議論において浮上している問題の一つはデータプライバシーであり、Fetch.ai、SingularityNET (SNET)、Ocean Protocolという3つの主要な分散型AIプロジェクトが合併して分散型AIエコシステムを構築することを決定しました。

*「本日、Opera One Developerのユーザーは、自分の入力を処理するために選択したいモデルを選ぶ機会を得ています。モデルをテストするには、最新バージョンのOpera Developerにアップグレードし、新機能を有効にするためにいくつかの手順を踏む必要があります。」*とOperaは述べました。

「ローカルLLMを選択すると、それが彼らのマシンにダウンロードされます。ローカルLLMは、通常、バリアントごとに2〜10 GBのローカルストレージスペースを必要とし、ユーザーがAIとの新しいチャットを開始するか、Ariaを再度オンにするまで、OperaのネイティブブラウザAIであるAriaの代わりに使用されます。」

最新の投稿やアップデートについてはTwitterでフォローしてください

MAJOR-0.79%
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)