"We are back" « oc.at

KI Modelle auf lokaler Hardware

EndOfDayz 08.02.2025 - 20:46 14128 93
Posts

TOM

Legend
I Need More Space
Avatar
Registered: Nov 2000
Location: Vienna
Posts: 7570
https://blog.google/innovation-and-...iction-gemma-4/

spekulative multi-token prediction von Google in Ihren Gemma4 models => 1.5x - 3x speedup ohne quality degradation (like Quantisierung)

mr.nice.

security baseline pusher
Avatar
Registered: Jun 2004
Location: Wien
Posts: 6792
Self-Hosted macht imho nur bei gewissen edge-cases Sinn und da braucht man mindestens einen fähigen Entwickler bzw. Entwicklerin die das trainieren, warten und auch weiterentwickeln können.

Maschinelle Bilderkennung in der Krebsforschung ist z.B. so ein Thema wo es super einsetzbar ist und in gewissen Bereichen schon seit Jahren gemacht wird,
quasi ein automatisierter Vorsortierungsprozess, damit sich die qualifizierten Personen in Summe weniger Bilder pro Patient anschauen müssen.
Bearbeitet von mr.nice. am 06.05.2026, 08:45

darkboarder

Here to stay
Avatar
Registered: Nov 2002
Location: Wien
Posts: 847
Dieses Projekt benutzt die User Hardware über den Browser.

Nette Spielerei.

https://webllm.mlc.ai bzw direkt https://chat.webllm.ai


mit M4 Chip und 16GB Ram,
als Vorschlag Qwen 3 8B model, ~5GB (f16)

click to enlarge
example-com_281364.png (downloaded 0x)
Bearbeitet von darkboarder am 12.05.2026, 12:08

BiG_WEaSeL

Elder
-
Avatar
Registered: Jun 2000
Location: Wien
Posts: 8646
Ich seh da nur alte Modelle wie Qwen 3, nichtmal 3.5, ganz zu schweigen von 3.6.

Die Daten werden lokal gecached was auch ewig dauert zum runterladen (selbst bei einer GBit Leitung). Selbst kleine Modelle dauern bei mir Minuten bis einfachste prompts beantwortet werden.

Imho völlig unbrauchbar aber netter proof of concept.
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz