Francesa Mistral lançou os seus primeiros modelos de raciocínio
A empresa Mistral está a crescer em matéria de Inteligência Artificial (IA), reforçando a aposta europeia nesta que é a tecnologia do momento. Entretanto, a francesa lançou a sua primeira família de modelos de raciocínio.
Em 2023, investigadores da Meta e da Google DeepMind lançaram-se na criação de uma nova empresa de IA, em França, denominada Mistral AI.
Na altura, a empresa estabeleceu um objetivo claro: competir com os modelos desenvolvidos pela OpenAI e pela Google, criando uma plataforma que servisse de base para o desenvolvimento de chatbots, motores de pesquisa e outras plataformas de IA.
Entretanto, esta semana, a empresa francesa anunciou a Magistral, a sua primeira família de modelos de raciocínio.
Modelos de raciocínio da Mistral podem ser usados para vários fins
Tal como outros modelos de raciocínio, como o o3 da OpenAI e o Gemini 2.5 Pro da Google, o Magistral resolve os problemas passo a passo para melhorar a consistência e a fiabilidade em tópicos como matemática e física.
Conforme divulgado, o Magistral está disponível em duas variantes:
- Magistral Small - com 24 mil milhões de parâmetros (ou seja, os componentes internos de um modelo que orientam o seu comportamento), está disponível para download na plataforma de desenvolvimento de IA Hugging Face sob uma licença permissiva Apache 2.0.
- Magistral Medium - um modelo mais capaz, e em pré-visualização na plataforma de chatbot Le Chat da Mistral e na API da empresa, bem como em nuvens de parceiros terceiros.
Segundo a Mistral, numa publicação oficial, a sua nova família de modelos de raciocínio é "adequada para uma ampla gama de casos de uso empresarial, desde cálculos estruturados e lógica programática até árvores de decisão e sistemas baseados em regras".
Além disso, os modelos são "ajustados para lógica de várias etapas, melhorando a interpretabilidade e fornecendo um processo de pensamento rastreável na linguagem do utilizador".
Entenda a diferença entre Modelos de Raciocínio e Convencionais:
Só há o modelo “Small” em Download :
https://huggingface.co/mistralai/Magistral-Small-2506_gguf
Os modelos gguf podem ser usados com varios “frontends” ( oolama, LM Studio, JAN, llama-cpp, google colab) ir até “use this model” e escolher. Para esse modelo, a Mistral fez um “Quantization Q8”. Existe explicações para produzir um gguf de “modelos brutos” de “Transfomers’ com o llama-cpp ( mas é preciso ir ao GITHUB e construir o llama-cpp). Para quem gosta de brincar com as suas maquinas, senão usar o gguf já construido. Depende dos modelos, mas alguns com Q8 conseguem trabalahr em maquinas pessoais, outro en Q16 talvez em Google Colabs seja melhor.
Enjoy
Anuncio de ontem Mistral :
https://mistral.ai/news/mistral-compute