Published new comparison:
Choosing the Best locally hosted #LLM for #Perplexica:
#Llama3, #Llama3.1, #MistralNemo, #Gemma2, #Qwen2, #Phi3 or #Command-r?
https://www.glukhov.org/post/2024/08/perplexica-best-llm/
#AI #self-hosted #selfhosted
Published new comparison:
Choosing the Best locally hosted #LLM for #Perplexica:
#Llama3, #Llama3.1, #MistralNemo, #Gemma2, #Qwen2, #Phi3 or #Command-r?
https://www.glukhov.org/post/2024/08/perplexica-best-llm/
#AI #self-hosted #selfhosted
TheDrummer/Rocinante-12B-v1.1
這是我最近推薦使用的模型,擅長角色扮演也擅長說故事,充滿了創造力,而且不像許多 #Llama3 的模型會快速推動劇情,也不像其他同樣以 #MistralNeMo 為基礎訓練的模型,用起來就是怪怪的。
#LLM
Heureusement il existe + rapide !
Dans les mêmes conditions matérielles exactement #mistralnemo rend sa copie en 11 secondes seulement.
Sauf que sa réponse c’est 21, puis 5…
>>> 1+1+1+10
The sum of 1 + 1 + 1 + 10 is:
21
>>> c’est faux
Je suis désolé, il y a une erreur dans ma réponse précédente. La somme de 1 + 1 + 1 + 10 est en réalité:
5
Je m'excuse pour toute confusion que j'ai pu causer.
>>> toujours faux
Je suis vraiment désolé pour les erreurs précédentes. Voici la bonne réponse:
…
Bon, le raisonnement des grands modèles de langage c'est pas encore ça ...
"Les Jeux olympiques d'été de 1924 ont eu lieu à Paris, en France, pendant le règne du roi Louis XVI. “
Pourtant il se corrige par après:
"Pour répondre à votre question, il n'y avait pas de roi en France pendant les Jeux olympiques d'été de Paris
en 1924.”
»#Nvidia and #Mistral's new model '#MistralNeMo' brings #enterprise-grade #AI to #desktop computers.« https://venturebeat.com/ai/nvidia-and-mistrals-new-model-mistral-nemo-brings-enterprise-grade-ai-to-desktop-computers/?eicker.news #tech #media