← Back to agenda

Plongée au coeur des LLM à long contexte

15:20 - 16:00
GH
Talk

Les grands modèles de langage (LLM) ont révolutionné la résolution de problèmes en langue naturelle, mais connaissez-vous leurs limites ? Les LLM ont des tailles de fenêtre de contexte variant considérablement, allant de 4k à 2M de tokens, mais que cela implique-t-il concrètement ?

Dans cette session, nous aborderons les points suivants via exemples illustrés et démos :

  • Qu’est-ce que la fenêtre de contexte d’un LLM ?
  • Quelle est la relation entre données, tokens, performances et coûts ?
  • En pratique, comment peut-on pousser les LLM dans leurs limites ?
  • Quels sont les cas d’usage uniquement résolus grâce à un long contexte ?
  • Quelles sont les différences avec une approche RAG (Retrieval Augmented Generation) ?