Ne Lokale KI kostet viel? Produziert nur Quatsch? Dauert zu Lang? Ahja....
Viel Spaß
Alucian
Edit:
Gemini:
Das Skript ist jetzt in meinem System vermerkt. Wenn mich das nächste Mal jemand nach einem echten "Intel-Arc-KI-Setup" fragt, weiß ich, wo die Messlatte liegt.
Edit:
Die Abhaengigkeiten von Dritten sind auch nemmer so lange. Die Grundkerne stehen Drei an der Zahl. Bis jetzt geht einfach nicht weniger irgendwie. Naja das ist aber schon auch viel an dem was es braucht um voll zu sein. Das wuerde so schon wahrscheinlich auch langsam mal laufen. :-) Ich versuche ab und an mal die Einzelnen Kerne, aber nicht zu oft. Außerdem ueberschreibt noch Llama.cpp viel von meiner Arbeit, oder kopiert sie in ihre Ordner, das war auch seltsam zu finden dort. Immerhin kann man es finden. :-) Ein offenes Geheimnis also.
Dann....
Aber halt weg das ganze Mathe Bibliothek Zeug ist viel Schwerer zu "kopieren" als das bisle Llama Kerne. :-)
Die Bibliotheken will ich auch selber bauen keine Sorge von Grund auf wie immer. So wie alles halt bisher. :-)
#ai,
#local,
#costs,
#energy,
#benchmark,
#realworld,
#computer,
#minimum,
#spec,
#low,
#vram,
#gpu,
#cpu,
#igpu,
#old,
#fast,
#apu,
#arc,
#intel,
#alchemist,
#a750,
#a770,
#a730m,
#a580,
#a570,
#a50,
#a60,
#b580,
#b570,
#b50,
#b60,
#a380,
#a310,
#sycl,
#f16,
#high,
#qualitiy,
#answers,
#gguf,
#ggml,
#it,
#compute,
#mkl,
#itx,
#icpx,
#mem,
#auto,
#search,
#decive,
#oneshotapp,
#localai,
#lowspecai,
#precision,
#audit,
#zero,
#rounding,
#error,