In this video, we thoroughly test Mistral 7b Open Orca GPTQ. It's an incredibly performant small model that illustrates the future of locally hosted edge models. How good is it? Does it beat LLaMA 13b? Let's find out!
Enjoy :)
Join My Newsletter for Regular AI Updates 👇🏼
[ Ссылка ]
Need AI Consulting? ✅
[ Ссылка ]
Rent a GPU (MassedCompute) 🚀
[ Ссылка ]
USE CODE "MatthewBerman" for 50% discount
My Links 🔗
👉🏻 Subscribe: [ Ссылка ]
👉🏻 Twitter: [ Ссылка ]
👉🏻 Discord: [ Ссылка ]
👉🏻 Patreon: [ Ссылка ]
Media/Sponsorship Inquiries 📈
[ Ссылка ]
Links:
LLM Leaderboard - [ Ссылка ]
Runpod (Affiliate)- [ Ссылка ]
Runpod Tutorial - [ Ссылка ]
Runpod Textgen Template - [ Ссылка ]
![](https://i.ytimg.com/vi/g7kVVBlCGo0/maxresdefault.jpg)