Teknoloji

Nvidia’nın sentetik veri şirketi Gretel’i satın aldığı bildirildi

ABD merkezli teknoloji devi Nvidia, sentetik yapay zeka eğitim verileri üretimi konusunda uzmanlaşan San Diego merkezli Gretel adlı girişimi satın aldı. Satın alımın detayları açıklanmazken, Wired’ın haberine göre anlaşmanın dokuz haneli bir bedelle gerçekleştiği ve Gretel’in en son 320 milyon dolarlık değerlemesini aştığı belirtiliyor.

Gretel’in Nvidia’ya katılımı

Gretel’in yaklaşık 80 kişilik ekibiyle birlikte Nvidia bünyesine katılacağı ve girişimin teknolojisinin Nvidia’nın geliştiriciler için sunduğu üretken yapay zeka hizmetlerine entegre edileceği bildiriliyor.

2019 yılında Alex Watson, Laszlo Bock, John Myers ve Ali Golshan tarafından kurulan Gretel, yapay zeka modellerini özelleştirerek, kendi teknolojisini entegre eden ve bu modelleri geliştiricilere sunan bir platform sağlıyor. Şirket, girişim sermayesi yatırımcıları Anthos Capital, Greylock ve Moonshots Capital gibi firmalardan toplamda 67 milyon dolardan fazla yatırım almıştı.

Nvidia’nın bu satın alımı, büyük teknoloji şirketlerinin (Microsoft, Meta, OpenAI ve Anthropic gibi) yapay zeka modellerini eğitmek için giderek daha fazla sentetik veriye yöneldiği bir dönemde gerçekleştiği için önemli. Gerçek dünyadaki veriler giderek tükenirken, sentetik verinin önemi artıyor ve Nvidia bu alandaki liderliğini güçlendirmek için kritik bir adım atmış gibi görünüyor.

Dünyadaki veriler tükendi

Yapay zeka firmaları, telif hakkıyla korunan içerikleri kullanıp kullanamayacakları konusunda anlaşmazlıklara yol açan, kendilerine serbestçe sunulan eğitim verilerinin sınırına dayanmış durumda. Şu anda OpenAI, ABD hükümetine yapay zeka modellerini eğitmek için telif hakkıyla korunan materyallere daha fazla erişim izni vermesi için talepte bulunuyor, aksi takdirde Çin tarafından geçileceklerini öne sürüyor.

Sentetik veriler özel bilgilerin korunmasında da değer taşıyor. Gretel, sentetik verilerinin hassas veya kişisel bilgileri açığa çıkarmadan modelleri ve araçları eğitmek için kullanılabileceğini söylüyor. Bu tür verilerin model eğitiminde kullanılmasıyla ilgili endişeler de bulunuyor. Gerçekliğe dayanmayan bilgilere aşırı güvenmek, bir modelin işleri yanlış yapma olasılığını artırabilir. Sorun yeterince kötüleşirse, modelin işe yaramaz hale gelecek kadar yanlış olması durumunda model çökmesi olarak bilinen bir soruna neden olabilir.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

paslanmaz korkuluk
Başa dön tuşu