Let’s Talk: MISTRAL AI Community Questions & Feedback
As part of the Mistral Ambassadors program, I’m opening this thread to gather community feedback, questions and suggestions directly from all of you.
Questions and suggestions here:
www.reddit.com/r/MistralAI/...
22.10.2025 10:35
👍 1
🔁 0
💬 0
📌 0
Mistral AI Documentation
Learn how to deploy and use Mistral AI's Large Language Models with our comprehensive documentation, guides, and tutorials.
Mistral has just released its new public documentation site, with a fresh layout, clean structure and more detailed info about models, endpoints, agents, and platform features.
The docs are finally reaching the level of polish that the platform deserves.
You can check it out here: docs.mistral.ai
21.10.2025 18:09
👍 0
🔁 0
💬 0
📌 0
Amen
18.04.2025 07:34
👍 0
🔁 0
💬 0
📌 0
Al final dependerá mucho de tu equipo y el caso de uso. Ciertamente Gemma ofrece un contexto mucho más largo, pero a coste de uso de recursos menos eficiente. No obstante, merece la pena probar ambos para comparar.
13.03.2025 09:18
👍 0
🔁 0
💬 0
📌 0
Conforme el contexto acumulado crece (limitado a 30k en ambos) Mistral mantiene su velocidad, pero Gemma se hace notablemente más lento y el consumo de recursos en el ordenador crece notablemente más (un 40% más que Mistral aprox.) 🧵
13.03.2025 09:17
👍 0
🔁 0
💬 1
📌 0
Y ahora vienen otras consideraciones que no puedo medir. Mistral es más serio y conciso. Gemma más hablador y “gracioso”.
En el RAG que tengo montado, Mistral es bastante más rápido que Gemma y más preciso. Y, esto a continuación es importante 🧵
13.03.2025 09:13
👍 0
🔁 0
💬 0
📌 0
Multilingual. Solo lo he probado en español aparte de inglés. Mistral no comete fallos notables. Gemma 3 tiene algunos problemas con el español, pero muchos menos que, por ejemplo, llama 3.3. 🧵
13.03.2025 09:10
👍 0
🔁 0
💬 1
📌 0
Velocidad de inferencia. Ambos en local mediante Ollam y en el mismo ordenador(el anterior) y mismo prompt.
Mistral: 20 tokens por segundo.
Gemma 3: 24 tokens por segundo. 🧵
13.03.2025 09:07
👍 0
🔁 0
💬 1
📌 0
Mistral tiene 32k de contexto y Gemma 128k. Personalmente prefiero 128k, pero para uso local un contexto tan grande satura la memoria a no ser que tengas un pepino de ordenador (en mi caso un MacBook Pro M4 Max con 128 de memoria unificada y aún sufre cuando pasa de 50k tokens) Para gustos. 🧵
13.03.2025 08:58
👍 0
🔁 0
💬 1
📌 0
He tenido la oportunidad de probar Gemma 3 de Google en su versión 27b. Voy a compararlo, desde un punto de vista de usuario, con Mistral Small 3 24b por ser de tamaño aproximado. 🧵
13.03.2025 08:54
👍 0
🔁 0
💬 2
📌 0
Mistral OCR | Mistral AI
Introducing the world’s best document understanding API.
World’s best document understanding API. Mistral OCR
09.03.2025 18:16
👍 0
🔁 0
💬 0
📌 0
06.03.2025 08:04
👍 0
🔁 0
💬 0
📌 0
Disrespectful, arrogant, and illiterate. But above all, a traitor.
#standwithukraine
28.02.2025 21:46
👍 1
🔁 0
💬 0
📌 0
#standwithukraine
28.02.2025 21:26
👍 1
🔁 0
💬 0
📌 0