AMD’nin AIE (AI Engine) dizilerini Programlanabilir Lojik (PL) ile birleştirerek, standart veya özel sinir ağı uygulamalarında sadece hız değil, aynı zamanda verimlilik odaklı bir hızlandırma sunmaktadır. Vitis AI NPU IP’si, genel amaçlı bir yapay zekâ çıkarım (inference) hızlandırıcısı olarak çalışır. Tek bir NPU üzerinde birden fazla Yapay Sinir Ağı modeli yüklenebilir ve eş zamanlı olarak çalıştırılabilir. Cihaz başına birden fazla NPU IP örneği oluşturabilir ve gereksinimlerinizi karşılamak üzere NPU IP’sinin boyutunu ölçeklendirebilirsiniz.
Model Derleyici Kiti:
Model Çıkarım (Deployment) API’ları:
Vitis AI Runtime (VART), NPU IP’nin yazılım uygulamalarına entegrasyonunu destekleyen bir dizi API (Uygulama Programlama Arayüzü) fonksiyonudur. C++ ve Python API’leri, yazılım entegrasyonunu büyük ölçüde kolaylaştırırken, donanım mimarisinden bağımsız bir çalışma imkanı sunar. Böylece kullanıcıların yeni bir model dağıtımı için donanımı yeniden derlemelerine veya yeni bir bitstream yüklemelerine gerek kalmaz. Bu da geleneksel hızlandırıcılara kıyasla geliştirme döngüsünü çarpıcı biçimde kısaltan ve ürünlerin pazara çıkış sürecini hızlandıran kritik bir faktördür.
Daha fazla bilgi ve projenize özel destek için Empa Ar-Ge Merkezi AI ekibi ile iletişime geçebilir, ilgili web sayfalarımızı ziyaret edebilirsiniz: