KI Modelle auf lokaler Hardware
EndOfDayz 08.02.2025 - 20:46 1475 17
EndOfDayz
Little Overclocker
|
Mich würde interessieren auf welcher Hardware ihr lokal KI Modelle betreibt und wie diese dann performen.
Ob diese sinnvoll nutzbar sind, oder die Wartezeiten zu lange werden.
Aber auch ob kleinere Modelle dann noch ausreichend gute Ergebnisse liefern.
|
liltan0x
Little Overclocker
|
Ist bei mir nun alles nur rumgespiele um mal zu "schauen" wie es lokal so tut, aber ich lasse alles auf meinem uralten M1 Macbook Air laufen mit 16GB Ram und es lauft ziemlich gut muss ich sagen. Gerade Deepseek ist sehr performant und bringt die Musik im Hintergrund nicht zum stottern beim computen
|
BiG_WEaSeL
Elder-
|
Diverse Chatbots, FLUX (Bildgenerierung), F5-TTS Voice Cloning, bolt.diy (App-Erstellung)
Laufen lasse ich es auf einen Mac Mini M4 pro 14-Kern mit 64GB RAM.
|
ZARO
Here to stay
|
Also Ich spiele gerade mit dem Deepseek-R1 in der 32B Version auf einem 5950x mit 64G RAM und 4090er.
Geht ausreichend gut.
für den typischen Windows user zum ausprobieren kann Ich LM-Studio empfehlen, ist deutlich einfacher als einzelne Packages zu installieren und auf der cmd zu wursteln.
auch ComfyUi mit Stable diffusion geht ganz gut damit.
lg
|
quilty
Ich schau nur
|
Ich lasse lieber die großen Anbieter Verlust machen mit meinen Prompts. Und habe schneller Ergebnisse. Lokal selbst habe ich nur im beruflichen Umfeld ein paar Tests gemacht, aber es hat wenig Sinn bei den Preisen, um die man auf die großen AI-Infrastrukturen zugreifen kann. Mit einer 3090 wars vertretbar schnell.
|
EndOfDayz
Little Overclocker
|
Im Firmenumfeld wird sich aber immer die Frage stellen welche Daten man an die großen Player rausrücken kann/darf/soll.
|
Longbow
Here to stay
|
Im Firmenumfeld wird sich aber immer die Frage stellen welche Daten man an die großen Player rausrücken kann/darf/soll. Gibt ja entsprechende Enterprise Zugänge wo es angeblich dann ned zum Training genutzt wird bzw ist das Hochladen sensibler Dokumente sowieso ein nogo.
|
Rogaahl
Elderinterrup
|
Also Ich spiele gerade mit dem Deepseek-R1 in der 32B Version auf einem 5950x mit 64G RAM und 4090er. Das geht sogar mit, 32GB RAM und ohne GPU. Wer es probieren will, es ist in 5 Minuten installiert: sudo pacman -S ollama
sudo systemctl start ollama
ollama pull deepseek-r1:32b
ollama run deepseek-r1:32b "How many overclockers do you need to change a lightbulb"
|
sk/\r
i never asked for this
|
was heißt in dem fall "mit der AI rumspielen" stellt ihr da laufend fragen?
|
Dargor
Shadowlord
|
|
Kirby
0x20
|
ollama für deepseek, mistral und ähnliches. ComfyUI für Pony und FLUX wobei je nach workflow die graka mehr arbeiten muss. 7900xt mit 20gb und 32gb ram
|
roscoe
tinkerer
|
Ich bin auch am herumspielen und bin eigentlich recht positiv überrascht, wie gut das geht.
Aktuell CPU only in einer VM auf einem Server, ollama, Mistral, die "kleinen" deepseek R1 Modelle. Primär für Powershell Zeug, teilweise Dokumente/Formulierungen überarbeiten, teilweise was auch immer mir einfälllt.
Mittelfristig auch mehr automatisierte Prozesse - Rechnungen etc. kommen rein, werden automatisch abgelegt, "Wissen" wird lokal gespeichert..
Da CPU only sehr, sehr langsam ist, will ich mir eine 3060er/12 GB o.ä. besorgen und in eine eigene Kiste stecken.
|
charmin
Elder0_o
|
hach ja. ollama ist echt so nice. ein paar minuten und schon rennt das zeug lokal in der shell
|
COLOSSUS
AdministratorGNUltra
|
Im Firmenumfeld wird sich aber immer die Frage stellen welche Daten man an die großen Player rausrücken kann/darf/soll. Firmen, je massiver desto bereitwilliger (aber mit umso mehr Brimborium durch "die Rechtsabteilung" usw.), lassen sich meiner Erfahrung nach immer durch Anwaltsgeblubber und Vertraege und Zusicherungen und Compliance-Garantien abspeisen in solchen Angelegenheiten. Auch, wenn es um durchaus existenzielle Risiken geht.
|
daisho
VereinsmitgliedSHODAN
|
Ja, ist einfach Verantwortung abwälzen, was tatsächlich im Fall des Falles passieren kann wird dann meist gar nicht mehr untersucht. Oft wissen die Entscheidungsträger sogar dass es im Hintergrund in Wahrheit eh anders abläuft (Data Privacy) oder dass es im Notfall dann eh nicht hilft, aber da spielt wohl einfach die "Nicht mehr mein Bier" Mentalität rein. Nicht selbst für die Firma verantwortlich = mir egal.
|