PplWare Mobile

Francesa Mistral lançou os seus primeiros modelos de raciocínio

                                    
                                

Autor: Ana Sofia Neto


  1. Philippe Marques says:

    Só há o modelo “Small” em Download :
    https://huggingface.co/mistralai/Magistral-Small-2506_gguf

    Os modelos gguf podem ser usados com varios “frontends” ( oolama, LM Studio, JAN, llama-cpp, google colab) ir até “use this model” e escolher. Para esse modelo, a Mistral fez um “Quantization Q8”. Existe explicações para produzir um gguf de “modelos brutos” de “Transfomers’ com o llama-cpp ( mas é preciso ir ao GITHUB e construir o llama-cpp). Para quem gosta de brincar com as suas maquinas, senão usar o gguf já construido. Depende dos modelos, mas alguns com Q8 conseguem trabalahr em maquinas pessoais, outro en Q16 talvez em Google Colabs seja melhor.

    Enjoy

Deixe um comentário

O seu endereço de email não será publicado.

You may use these HTML tags and attributes: <a href="" title="" rel=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

*

Aviso: Todo e qualquer texto publicado na internet através deste sistema não reflete, necessariamente, a opinião deste site ou do(s) seu(s) autor(es). Os comentários publicados através deste sistema são de exclusiva e integral responsabilidade e autoria dos leitores que dele fizerem uso. A administração deste site reserva-se, desde já, no direito de excluir comentários e textos que julgar ofensivos, difamatórios, caluniosos, preconceituosos ou de alguma forma prejudiciais a terceiros. Textos de caráter promocional ou inseridos no sistema sem a devida identificação do seu autor (nome completo e endereço válido de email) também poderão ser excluídos.