Muskious
New member
Yapay zeka teknolojileri günümüzde şayet olmazsa olmazlar ortasına girdi ve ne kadar yüksek YZ performansı elde ederseniz otonom süreçleri de o kadar kolay yerine getiriyorsunuz. Intel müşterilerine daha erişilebilir ve esnek YZ teknolojileri sunmak için kolları sıvadı.
Yapay zekâ daha erişilebilir
Intel’in geliştirici ekosistemlerine, araçlarına, teknolojisine ve açık platforma yaptığı büyük yatırımlar, yapay zekâyı her yerde ölçeklendirmenin yerini hazırlıyor. Intel Xeon Ölçeklenebilir işlemcilerdeki tanınan kitaplıkların ve çerçevelerin kapsamlı optimizasyonu yoluyla yapay zekâ, geliştiriciler için daha erişilebilir ve ölçeklenebilir bir hale geldi.
Intel’in açık standartlar tabanlı bir programlama modeli kullanarak farklı müşteri ihtiyaçlarını karşılayacak fazlacalu yapay zekâ mimarilerine yaptığı yatırım yardımıyla, geliştiricilerin daha fazla kullanım durumunda daha fazla yapay zekâ iş yükünü çalıştırması artık daha kolay. Dünyanın ileri gelen kuruluşlarının birden fazla, karmaşık vazifeleri çözmek için Intel yapay zekâdan yararlanıyor.
Örneğin Alibaba ve Intel, derin öğrenme eğitimini ve teklif sistemlerinin dağıtımını kolaylaştırmak için uçtan uca bir araç seti oluşturuyor. Bu araç grubu yardımıyla, tüm bilgi merkezinin ve bulut yapay zeka döngülerinin kıymetli bir kısmını tüketen ve çeşitli bilgi süreç, bellek, bant genişliği ve ağ muhtaçlıkları bulunan bir iş yükünün üstesinden gelinebilecek. DeepRec geliştiricileri, modellerini çarçabuk yükleyip güncelleyebilecek, gömülü katmanları işleyebilecek, mevcut modellerden yararlanabilecek ve trilyonlarca örnekle son derece büyük ölçekli, teklife dayalı hizmetleri devreye alabilecek.
Intel’in optimize ettiği yapay zekâ araç setleri, bilgi bilimcilere daha yüksek performans ve sıra dışı üretkenlik sağlıyor. Intel; Pandas, scikit-learn, MXNet, PaddlePaddle, PyTorch, TensorFlow ve ONNX Runtime üzere en tanınan bilgi bilimi yazılımlarının Intel donanımlarında çalışacak biçimde optimize edilmesini sağlamak için açık kaynak topluluğuyla ve Amazon, Baidu, Facebook, Google ve Microsoft ile ortak çalışmalar yürüttü.
Intel, gelecek jenerasyon Intel Xeon Ölçeklenebilir işlemcisi (“Sapphire Rapids“) ile evvelki kuşağa göre toplam 30 kata kadar yapay zekâ performansı karı sağlamayı hedefliyor. Hem kapsamlı yazılım optimizasyonları tıpkı vakitte yakında çıkacak işlemcinin yerleşik AMX yapısı ile ulaşılan bu performans hasılatları, ayrık GPU’lar gerekmeksizin daha da fazla yapay zekâ kullanım durumu sağlayacak.
Yapay zekâ daha erişilebilir
Intel’in geliştirici ekosistemlerine, araçlarına, teknolojisine ve açık platforma yaptığı büyük yatırımlar, yapay zekâyı her yerde ölçeklendirmenin yerini hazırlıyor. Intel Xeon Ölçeklenebilir işlemcilerdeki tanınan kitaplıkların ve çerçevelerin kapsamlı optimizasyonu yoluyla yapay zekâ, geliştiriciler için daha erişilebilir ve ölçeklenebilir bir hale geldi.
Intel’in açık standartlar tabanlı bir programlama modeli kullanarak farklı müşteri ihtiyaçlarını karşılayacak fazlacalu yapay zekâ mimarilerine yaptığı yatırım yardımıyla, geliştiricilerin daha fazla kullanım durumunda daha fazla yapay zekâ iş yükünü çalıştırması artık daha kolay. Dünyanın ileri gelen kuruluşlarının birden fazla, karmaşık vazifeleri çözmek için Intel yapay zekâdan yararlanıyor.
Örneğin Alibaba ve Intel, derin öğrenme eğitimini ve teklif sistemlerinin dağıtımını kolaylaştırmak için uçtan uca bir araç seti oluşturuyor. Bu araç grubu yardımıyla, tüm bilgi merkezinin ve bulut yapay zeka döngülerinin kıymetli bir kısmını tüketen ve çeşitli bilgi süreç, bellek, bant genişliği ve ağ muhtaçlıkları bulunan bir iş yükünün üstesinden gelinebilecek. DeepRec geliştiricileri, modellerini çarçabuk yükleyip güncelleyebilecek, gömülü katmanları işleyebilecek, mevcut modellerden yararlanabilecek ve trilyonlarca örnekle son derece büyük ölçekli, teklife dayalı hizmetleri devreye alabilecek.
Intel’in optimize ettiği yapay zekâ araç setleri, bilgi bilimcilere daha yüksek performans ve sıra dışı üretkenlik sağlıyor. Intel; Pandas, scikit-learn, MXNet, PaddlePaddle, PyTorch, TensorFlow ve ONNX Runtime üzere en tanınan bilgi bilimi yazılımlarının Intel donanımlarında çalışacak biçimde optimize edilmesini sağlamak için açık kaynak topluluğuyla ve Amazon, Baidu, Facebook, Google ve Microsoft ile ortak çalışmalar yürüttü.
Intel, gelecek jenerasyon Intel Xeon Ölçeklenebilir işlemcisi (“Sapphire Rapids“) ile evvelki kuşağa göre toplam 30 kata kadar yapay zekâ performansı karı sağlamayı hedefliyor. Hem kapsamlı yazılım optimizasyonları tıpkı vakitte yakında çıkacak işlemcinin yerleşik AMX yapısı ile ulaşılan bu performans hasılatları, ayrık GPU’lar gerekmeksizin daha da fazla yapay zekâ kullanım durumu sağlayacak.