Artwork

Contenu fourni par Intel Corporation. Tout le contenu du podcast, y compris les épisodes, les graphiques et les descriptions de podcast, est téléchargé et fourni directement par Intel Corporation ou son partenaire de plateforme de podcast. Si vous pensez que quelqu'un utilise votre œuvre protégée sans votre autorisation, vous pouvez suivre le processus décrit ici https://fr.player.fm/legal.
Player FM - Application Podcast
Mettez-vous hors ligne avec l'application Player FM !

Predera Democratizing AI Model Production - CitC Episode 282

16:42
 
Partager
 

Manage episode 344209789 series 1180916
Contenu fourni par Intel Corporation. Tout le contenu du podcast, y compris les épisodes, les graphiques et les descriptions de podcast, est téléchargé et fourni directement par Intel Corporation ou son partenaire de plateforme de podcast. Si vous pensez que quelqu'un utilise votre œuvre protégée sans votre autorisation, vous pouvez suivre le processus décrit ici https://fr.player.fm/legal.
Vamshi Ambati, Founder & CEO at Predera, joins host Jake Smith to discuss how Predera is working to democratize AI by making it truly accessible to everyone with companies able to manage AI and not just build it. He highlights how Predera’s AIQ platform enables enterprises to drastically cut down the challenges they face today in building, deploying and managing machine learning models. The platform makes it very simple and easy to take models into production and then manage them into the future. Vamshi talks about how Predera’s collaborated with Intel to optimize their workloads for Intel oneAPI AI Analytics Toolkits resulting in improvements in both training and inference. This has also enabled Predera and their customers to leverage CPUs for most workloads reducing the need to use expensive GPUs. Lastly, Jake and Vamshi discuss how algorithmic advancements and compute advancements will drive the future of machine learning allowing AI to be impactful in many new aspects of our lives. For more information, visit: https://predera.com/ Follow Jake on Twitter at: https://twitter.com/jakesmithintel
  continue reading

296 episodes

Artwork
iconPartager
 
Manage episode 344209789 series 1180916
Contenu fourni par Intel Corporation. Tout le contenu du podcast, y compris les épisodes, les graphiques et les descriptions de podcast, est téléchargé et fourni directement par Intel Corporation ou son partenaire de plateforme de podcast. Si vous pensez que quelqu'un utilise votre œuvre protégée sans votre autorisation, vous pouvez suivre le processus décrit ici https://fr.player.fm/legal.
Vamshi Ambati, Founder & CEO at Predera, joins host Jake Smith to discuss how Predera is working to democratize AI by making it truly accessible to everyone with companies able to manage AI and not just build it. He highlights how Predera’s AIQ platform enables enterprises to drastically cut down the challenges they face today in building, deploying and managing machine learning models. The platform makes it very simple and easy to take models into production and then manage them into the future. Vamshi talks about how Predera’s collaborated with Intel to optimize their workloads for Intel oneAPI AI Analytics Toolkits resulting in improvements in both training and inference. This has also enabled Predera and their customers to leverage CPUs for most workloads reducing the need to use expensive GPUs. Lastly, Jake and Vamshi discuss how algorithmic advancements and compute advancements will drive the future of machine learning allowing AI to be impactful in many new aspects of our lives. For more information, visit: https://predera.com/ Follow Jake on Twitter at: https://twitter.com/jakesmithintel
  continue reading

296 episodes

Semua episode

×
 
Loading …

Bienvenue sur Lecteur FM!

Lecteur FM recherche sur Internet des podcasts de haute qualité que vous pourrez apprécier dès maintenant. C'est la meilleure application de podcast et fonctionne sur Android, iPhone et le Web. Inscrivez-vous pour synchroniser les abonnements sur tous les appareils.

 

Guide de référence rapide