charmin
Vereinsmitgliedstay classy!
|
Da würd ich Opencode nehmen tbh. Daugt mir besser als Claude Code.
Bearbeitet von charmin am 29.04.2026, 20:52
|
Daeda
Renegade
|
Seh ich wie charmin. Aber ja, danke für den Hinweis - man kann Claude Code mit relativ geringem Aufwand auch "gratis" bzw. mit anderen Anbietern verwenden, aber ich hab nie verstanden warum man das wollen würde ^^
|
semteX
liebt die große KI
|
kann man das? beim subscription model?
|
Daeda
Renegade
|
|
semteX
liebt die große KI
|
edit: vollgas zurück, ich hab mich verlesen! ihr habt recht mein posting macht keinen sinn
Bearbeitet von semteX am 29.04.2026, 23:38
|
daisho
VereinsmitgliedSHODAN
|
Das Gemini 503-Problem haben sie jetzt scheinbar so gelöst dass die Antworten ewig brauchen anstatt einfach abgebrochen zu werden. Irgendwie besser als vorher, aber du kannst Stunden warten bis irgendwelche Tasks abgearbeitet werden  Müsste mir mal ein lokales Modell installieren um auf der 5090 laufen zu lassen, ist die Frage ob die 32 GB reichen für einigermaßen sinnvolles reasoning. Ein MacBook mit 128 gig wäre natürlich traumhaft, aber wer zahlts ... (mein AG leider nicht) Und die Zeit müsst ich auch mal haben, ist auch Mangelware im Moment. /Edit: Nah, die 503 gibt es immer noch ... nur das die Tasks jetzt noch viel langsamer sind
Bearbeitet von daisho am 06.05.2026, 13:46
|
X3ll
╰(*°▽°*)╯
|
Hab Qwen 3.6 27B auf zwei 4090ern lokal laufen mit https://pi.dev/ als harness. Läuft gut, ist nicht so schnell wie Claude und auch nicht so intelligent aber für gut geplante Coding Tasks mit überschaubarem Umfang, am besten alles testbasiert programmieren. Lokale KI geht gerade allgemein durch die Decke, llama.cpp hat jetzt MTP Support in einer Nightly, dadurch werden die Qwen Modelle deutlich geboostet -> https://huggingface.co/froggeric/Qwen3.6-27B-MTP-GGUF wird dann in den nächsten Wochen auch in der Main Branch implementiert sein.
Bearbeitet von X3ll am 07.05.2026, 12:27
|
semteX
liebt die große KI
|
Was für a Modell könnt ma auf ner 9070xt fahren lassn, ohne sein Leben zu hassen?
|
X3ll
╰(*°▽°*)╯
|
|
Jedimaster
Here to stay
|
|
quilty
Ich schau nur
|
canIRun.ai kann ich empfehlen wenn man wissen will was man wie laufen lassen kann auf seiner (geplanten) HW.
|
Viper780
ElderEr ist tot, Jim!
|
|
wergor
connoisseur de mimi
|
|
Daeda
Renegade
|
danke für die links. interessant wäre da noch eine verknüpfung zu benchmark ergebnissen. irgendwas sagt mir dass ein 1 jahre altes modell vielleicht nicht das beste für coding ist https://www.canirun.ai/device/rx-9070-xt?use=code Dafür sind eigentlich im oberen Bereich die "popular" models für deinen Anwendungsfall, unten siehst du dann "alle" die bei dir laufen, oder eben nicht. Als Vergleich, im Coding-Index von Artificial Analysis hat das GPT-OSS 20B, das bei dir "decent" lauft, immerhin 19 Punkte:  Das ist aber noch immer 11 Punkte hinter Sonnet 3.5 aus Oktober 2024 und 40 hinter dem Tabellenführer GPT-5.5. Für den Screenshot bin ich hier runter zum Coding-Bench gescrolled und hab nur Sonnet 3.5 (Oct'24) hinzugefügt, um ein ungefähres Zeitgefühl zu haben. Also mit einer normalen Grafikkarten bist mit lokalen LLMs vielleicht bei Coding-Skills von vor 3 Jahren, und wirklich brauchbare Ergebnisse gibts erst seit Mitte/Ende '25. Ein MacBook mit 128 gig wäre natürlich traumhaft, aber wer zahlts ... (mein AG leider nicht) Ist das nicht nur Hype? Da passen zwar große Models rein, aber der Speed ist solala (zumindest laut der canirun-Seite. Um das Geld kriegst fast zwei 5090er
|
daisho
VereinsmitgliedSHODAN
|
Ich denke der Grund ist dass das MacBook eine Bandbreite von (vermutlich theoretisch) 614 GB/s hat (für Token-Output) und mit einer möglichen Ausstattung von 128GB RAM schon recht potent für den sterblichen Normalverbraucher. Als vergleich, mein AM5-System mit Dual-Channel hat 96 GB/s. Grafikkarte ist natürlich um ein vielfaches höher, aber eine einzelne 5090 hat halt auch nur 32GB RAM ... Vermute die Mac-Kisten gehen ja noch mehr, aber mit dem Book hast halt gleichzeitig ein Teil das vermutlich fürs normale Arbeiten dann auch wenig Strom zieht und portabel = kannst überall damit arbeiten. Wäre für mich aktuell auch eine eierlegende Wollmilchsau. Aber 6,5k oder mehr will ich mir für einen Laptop jetzt auch ned unbedingt gleich leisten (außer es geht irgendwie über die Firma - aber die ist grad knausrig ohne Ende). /Edit: danke für die links. interessant wäre da noch eine verknüpfung zu benchmark ergebnissen. irgendwas sagt mir dass ein 1 jahre altes modell vielleicht nicht das beste für coding ist https://www.canirun.ai/device/rx-9070-xt?use=code P.S.: Danke, sehr nette Seite.
Bearbeitet von daisho am 08.05.2026, 07:32
|