-
Notifications
You must be signed in to change notification settings - Fork 45
feat: add tutoria mastra ai rag #1221
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
base: master
Are you sure you want to change the base?
Conversation
|
Images automagically compressed by Calibre's image-actions ✨ Compression reduced images by 7.4%, saving 13.2 KB.
1 image did not require optimisation. |
⚡️🏠 Lighthouse reportHere's the summary:
Here's the audits:
|
| En l'occurence, nous nous servirons de certaines APIs de Mastra pour nous aider à faire du **RAG** (*Retrieval-Augmented Generation*). Si vous ne savez pas en quoi cela consiste, nous allon y venir dans la prochaine partie ! | ||
|
|
||
| Mais tout d'abord, qu'allons-nous faire exactement ? Notre cas d'usage est très simple, prenons le Blog d'Eleven Labs, sur lequel nous nous trouvons actuellement. | ||
| Nous aimerions rendre la recherche d'article plus intelligent et plus pertinente. Quand un utilisateur fait une recherche, que ce soit par mot-clé, par problème renontré ou même sous la forme d'une simple question, il faudrait que le Blog réponde par une liste des articles et tutoriels les plus pertinents, et avec des petits résumés personnalisés expliquant en quoi chaque article correspond au problème de l'utilisateur. |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Faute de frappe : Par problème rencontré
Tu peux aussi ajouter que l'on pourrait utiliser la partie recherche vectoriel pour remonter les articles similaires, ce n'est pas du RAG car il n'y a pas d'agent mais on utilise une partie du concept pour un autre besoin. Cela pourrait être un workflow pour remonter les articles similaires
|
|
||
| Pareil ici, on n'aura pas à implémenter ces calculs nous-même. Mastra AI nous fournit toutes les APIs nécessaires pour transformer nos documents en vecteurs, les stocker en base, puis récupérer les vecteurs pertinents en fonction d'une requête. | ||
|
|
||
|  |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Il manque peut-être juste un petit picto user au niveau de la question
Et peut-être une information pour dire que c'est un workflow sur la partie documents qui se trouve en dessous
| title: Introduction | ||
| --- | ||
|
|
||
| ## Qu'allons-nous faire ? |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Peut-être ajouter une introduction à mastra un peu avant, d'où il sort, ce sur quoi il se base comme l'outil ai sdk de vercel qui fait partie de son socle principale et ces possibilités
|
|
||
| Intégrer des modèles d'IA (LLMs, embeddings, ...) à notre application peut-être compliqué car chacun de ces modèles peut se configurer de manière différente, et cela devient donc compliquer si l'on veut en changer ou simplement en tester plusieurs pour faire un benchmark du meilleur modèle pour nos besoins. | ||
|
|
||
| C'est là qu'intervient la librairie [**OpenRouter**](https://openrouter.ai/). Elle nous permet de standardiser l'intégration de nos modèles d'IA à nos applications, quelque soit le provider de ces modèles. |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Il faut spécifier que open router applique les conventions et standardisation d'open ai sur l'ensemble des providers
|
Images automagically compressed by Calibre's image-actions ✨ Compression reduced images by 44.4%, saving 184.8 KB.
1 image did not require optimisation. |
089a5dd to
02b0240
Compare
|
Images automagically compressed by Calibre's image-actions ✨ Compression reduced images by 44.4%, saving 184.8 KB.
1 image did not require optimisation. |
|
Images automagically compressed by Calibre's image-actions ✨ Compression reduced images by 10%, saving 21.3 KB.
2 images did not require optimisation. |
|
Il manque une chose hyper importante dans le tutoriel, c'est la partie chunking. |
|
On ne parle pas non plus de la notion de dimension d'un model embedding qui est techniquement très important. |
|
Il faut aussi aborder le topk et les filters lors de la recherche vectorielle |
|
Mentionner le reranking et graph qui sont les solutions avancées pour le RAG en conclusion. |
|
Citer l'ensemble des vector databases prise en charge par mastra car c'est son point fort par rapport aux concurrents |
No description provided.