Artwork

Contenu fourni par Ulrike Ostler. Tout le contenu du podcast, y compris les épisodes, les graphiques et les descriptions de podcast, est téléchargé et fourni directement par Ulrike Ostler ou son partenaire de plateforme de podcast. Si vous pensez que quelqu'un utilise votre œuvre protégée sans votre autorisation, vous pouvez suivre le processus décrit ici https://fr.player.fm/legal.
Player FM - Application Podcast
Mettez-vous hors ligne avec l'application Player FM !

#40: Red-Hat-Evangelist Jan Wildeboer über die Adaption von KI, generativer KI hierzulande - im Gespräch mit Ariane Rüdiger

33:05
 
Partager
 

Manage episode 453859315 series 3446325
Contenu fourni par Ulrike Ostler. Tout le contenu du podcast, y compris les épisodes, les graphiques et les descriptions de podcast, est téléchargé et fourni directement par Ulrike Ostler ou son partenaire de plateforme de podcast. Si vous pensez que quelqu'un utilise votre œuvre protégée sans votre autorisation, vous pouvez suivre le processus décrit ici https://fr.player.fm/legal.

Erstens KI, insbesondere GenAI ist unglaublich wichtig, zweitens sie frisst Ressourcen wie verrückt und drittens ist sie für die Anwenderunternehmen immer ziemlich teuer. Jan Windeboer würden Sie das so unterschreiben oder gibt es Einwendungen? So macht Autorin Ariane Rüdiger das Spannungsfeld rund um die KI-Nutzung hierzulande auf.

Das gilt insbesondere für die großen Sprachmodelle, wie „ChatGPT“. Doch wollen wir mehr oder weniger ein Orakel schaffen, also ein Large-Language-Modell, das auf jede Frage eine vernünftige Antwort liefern kann. Macht das Sinn? Oder sollten wir uns da nicht eher darauf konzentrieren dass wir Methoden haben, um sozusagen Fachexperten heranzuzüchten, die virtuell arbeiten und nicht unbedingt Universalgenies. So gibt es beispielsweise LLMs für die Netzwerküberwachung, die darauf trainiert sind, zu erkennen, wann gewisse Angriffsmuster auftreten und wie darauf zu reagieren ist.

Im Moment dreht sich die Diskussion um die Umsetzung von KI hauptsächlich um einen einzigen Hersteller: Nvidia. Muss ich mir als Unternehmen die GPUs des Branchenführers kaufen, oder bin ich mehr oder weniger außen vor? Kann eine Optimierung der Modelle und des Bedarfs an Daten, diese Technik gar kompensieren?

Was ist eigentlich mit dem klassischen Machine Learning? Und an welchen Stellen beziehungsweise Einsatzgebieten reicht die Form der KI nicht?

Artikel zum Thema:

  1. Der virtuelle Assistent mit GenAI im Blut; Die Developer Preview zu Red Hat Openshift Lightspeed ist da
  2. KI in Deutschland, im Mittelstand; LLMs sind kein Allheilmittel

Unternehmen und Sprecher: @Red Hat @Jan Wildeboer

#GenAI #KI #LLM #Open Source

Folgen Sie uns auf Social Media:


Bestellen Sie unseren kostenfreien Newsletter:


Unsere Website:

  • datacenter-insider.de, alles zu Software, Services, Hardware für Rechenzentren und das Darumherum um die IT

Weitere spannende Podcasts aus dem Hause Vogel IT-Medien GmbH:


  continue reading

41 episodes

Artwork
iconPartager
 
Manage episode 453859315 series 3446325
Contenu fourni par Ulrike Ostler. Tout le contenu du podcast, y compris les épisodes, les graphiques et les descriptions de podcast, est téléchargé et fourni directement par Ulrike Ostler ou son partenaire de plateforme de podcast. Si vous pensez que quelqu'un utilise votre œuvre protégée sans votre autorisation, vous pouvez suivre le processus décrit ici https://fr.player.fm/legal.

Erstens KI, insbesondere GenAI ist unglaublich wichtig, zweitens sie frisst Ressourcen wie verrückt und drittens ist sie für die Anwenderunternehmen immer ziemlich teuer. Jan Windeboer würden Sie das so unterschreiben oder gibt es Einwendungen? So macht Autorin Ariane Rüdiger das Spannungsfeld rund um die KI-Nutzung hierzulande auf.

Das gilt insbesondere für die großen Sprachmodelle, wie „ChatGPT“. Doch wollen wir mehr oder weniger ein Orakel schaffen, also ein Large-Language-Modell, das auf jede Frage eine vernünftige Antwort liefern kann. Macht das Sinn? Oder sollten wir uns da nicht eher darauf konzentrieren dass wir Methoden haben, um sozusagen Fachexperten heranzuzüchten, die virtuell arbeiten und nicht unbedingt Universalgenies. So gibt es beispielsweise LLMs für die Netzwerküberwachung, die darauf trainiert sind, zu erkennen, wann gewisse Angriffsmuster auftreten und wie darauf zu reagieren ist.

Im Moment dreht sich die Diskussion um die Umsetzung von KI hauptsächlich um einen einzigen Hersteller: Nvidia. Muss ich mir als Unternehmen die GPUs des Branchenführers kaufen, oder bin ich mehr oder weniger außen vor? Kann eine Optimierung der Modelle und des Bedarfs an Daten, diese Technik gar kompensieren?

Was ist eigentlich mit dem klassischen Machine Learning? Und an welchen Stellen beziehungsweise Einsatzgebieten reicht die Form der KI nicht?

Artikel zum Thema:

  1. Der virtuelle Assistent mit GenAI im Blut; Die Developer Preview zu Red Hat Openshift Lightspeed ist da
  2. KI in Deutschland, im Mittelstand; LLMs sind kein Allheilmittel

Unternehmen und Sprecher: @Red Hat @Jan Wildeboer

#GenAI #KI #LLM #Open Source

Folgen Sie uns auf Social Media:


Bestellen Sie unseren kostenfreien Newsletter:


Unsere Website:

  • datacenter-insider.de, alles zu Software, Services, Hardware für Rechenzentren und das Darumherum um die IT

Weitere spannende Podcasts aus dem Hause Vogel IT-Medien GmbH:


  continue reading

41 episodes

Όλα τα επεισόδια

×
 
Loading …

Bienvenue sur Lecteur FM!

Lecteur FM recherche sur Internet des podcasts de haute qualité que vous pourrez apprécier dès maintenant. C'est la meilleure application de podcast et fonctionne sur Android, iPhone et le Web. Inscrivez-vous pour synchroniser les abonnements sur tous les appareils.

 

Guide de référence rapide