YAPAY ZEKÂ | Opera Tarayıcısı, Yerel İndirme ve Çevrimdışı Kullanım için Büyük AI Modellerini Entegre Ediyor

robot
Abstract generation in progress

Önde gelen tarayıcı şirketi Opera, Opera One tarayıcısına geliştirici akışında yaklaşık 50 model ailesinden 150 yerel LLM (Large Language Model) varyantını ekleyeceğini söylüyor.

LLM'ler, OpenAI tarafından geliştirilen GPT (Generative Pre-trained Transformer) modelleri gibi, büyük miktarda metin verisi üzerinde eğitilmiş ileri düzey yapay zeka sistemleridir ve insan benzeri metinleri anlamak ve üretmek için kullanılırlar. Metin üretimi, çeviri ve özetleme gibi çeşitli doğal dil işleme görevleri için kullanılmaktadır.

Opera'ya göre, bu, yerel LLM'lerin büyük bir tarayıcıdan yerleşik bir özellik aracılığıyla kolayca erişilebildiği ve yönetilebildiği ilk kezdir. Yerel AI modelleri, Opera'nın çevrimiçi Aria AI hizmetine tamamlayıcı bir ek olarak sunulmaktadır. Desteklenen yerel LLM'ler arasında şunlar bulunmaktadır:

* Meta'dan Llama

  • Vicuna
  • Google'dan Gemma
  • Mistral AI'den Mixtral

"Bu şekilde Yerel LLM'leri tanıtmak, Opera'nın hızla gelişen yerel AI alanında deneyimler ve bilgi birikimi oluşturma yollarını keşfetmeye başlamasını sağlıyor," dedi Krystian Kolondra, Opera'da Tarayıcılar ve Oyunlardan Sorumlu İcra VP'si.

Yerel Büyük Dil Modelleri kullanmak, kullanıcıların verilerinin cihazlarında yerel olarak tutulması anlamına geliyor ve bu sayede kullanıcılar, bilgileri bir sunucuya göndermeye gerek kalmadan üretken yapay zekayı kullanabiliyor, dedi Opera.

Yapay zeka tartışmasında ortaya çıkan sorunlar arasında veri gizliliği yer almakta ve bu konuda üç önde gelen merkeziyetsiz AI projesi; Fetch.ai, SingularityNET (SNET) ve Ocean Protocol'un birleşerek merkeziyetsiz bir AI ekosistemi oluşturma kararı alması dikkat çekiyor.

"Bugün itibariyle, Opera One Geliştirici kullanıcıları, girdilerini işlemek için istedikleri modeli seçme fırsatı buluyor. Modelleri test etmek için en son Opera Geliştirici sürümüne yükselmeleri ve yeni özelliği etkinleştirmek için birkaç adımı takip etmeleri gerekiyor," dedi Opera.

"Yerel bir LLM'yi seçmek, ardından onu kendi makinesine indirmeyi gerektirecektir. Yerel LLM, genellikle her bir varyant için 2-10 GB yerel depolama alanı gerektirir ve daha sonra kullanıcı, AI ile yeni bir sohbete başlamadıkça veya Aria'yı tekrar açmadıkça, Opera'nın yerel tarayıcı AI'sı Aria yerine kullanılacaktır."

Bizi Twitter'da en son gönderiler ve güncellemeler için takip edin

MAJOR-5.06%
View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Reward
  • Comment
  • Repost
  • Share
Comment
0/400
No comments
Trade Crypto Anywhere Anytime
qrCode
Scan to download Gate App
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)