Felgyorsult a helyi MI-modellek futtatása: Apple MLX támogatást kapott az Ollama
Az Apple Silicon chipekben rejlő potenciál kiaknázása új szintre lépett a helyi nyelvi modellek (LLM) futtatása terén. Az Ollama legfrissebb frissítése natív támogatást vezetett be az Apple MLX keretrendszeréhez, ami drasztikus teljesítménynövekedést és hatékonyabb memória-kihasználást eredményez a Mac-felhasználók számára. Ez a lépés alapjaiban változtathatja meg, hogyan fejlesztünk és használunk mesterséges intelligenciát internetkapcsolat nélkül, közvetlenül a…