URL: https://www.overclockers.at/artificial-intelligence/ki-tools-der-sammelthread_263865/page_11 - zur Vollversion wechseln!
Zitat aus einem Post von DaedaHaha das Timing... Mario hat sich inkl. Pi heute an Earendil verkauft! Aber klingt eigentlich ganz gut der Deal: https://mariozechner.at/posts/2026-04-08-ive-sold-out/
Earendil ist ja die Bude von Armin Ronacher (Flask "Erfinder" unter anderem), und die beiden sind soweit ich weiß ja schon seit längerem gut vernetzt und befreundet. Zitat aus einem Post von illDas klingt jetzt so hartEarendil ist ja die Bude von Armin Ronacher (Flask "Erfinder" unter anderem), und die beiden sind soweit ich weiß ja schon seit längerem gut vernetzt und befreundet.
Ich hab jetzt bestimmt deinen Satz jetzt etwas falsch verstanden, will aber im Endeffekt nur darauf kurz hinweisen, dass das eine aus meiner Sicht komplett andere Hausnummer als ein Verkauf an OpenAI und Konsorten ist.
Im ausführlichen Artikel relativiert ers aber deutlich. Also es klingt wirklich wie gesagt nach einem guten Deal für ihn und vor allem auch für das weitere Bestehen von Pi als OSS. Er kann sich weiter über die technische Entwicklung kümmern und lagert die organisatorischen und finanziellen Themen an die Firma aus, wo er aber trotzdem starkes Mitspracherecht bei allen Pi-Themen behält.Ok wtf, das war nicht auf meiner Bingo-List für 2026:
Milla Jovovich (ja, DIE Milla von 5th Element und Resident Evil etc.) hat ein KI Tool entwickelt, zusammen mit einem Freund:
Insta Reel https://www.instagram.com/reels/DWzNnqwD2Lu/ (hab leider keine andere Quelle gefunden)
Free and open-source:
Bin grad am probieren von Gemma 4 31B
und Opencode mit GSD und LMStudio auf meiner 5090.
53 Tokens/sekunde und lässt sich schonmal flüssig arbeiten.
jetz mal schauen wie gut es is ...
Ich bin davon sehr angetan, aber ich code kaum/nicht, und schon gar nicht lokal.
Da es noch keinen MLX Support gibt in LMStudio, muss ich sie am Mac als GGUF laden, was deutlich langsamer ist. 31B mit ca. 7 Tokens/Sek, 26BA4B mit ca. 40. Tokens.
Die Qualität finde ich spitze. Wenn dann das MLX Modell funktioniert bin ich glaub ich mit Gemma4 sehr zufrieden.
Zitat aus einem Post von BiG_WEaSeLIch bin davon sehr angetan, aber ich code kaum/nicht, und schon gar nicht lokal.
Da es noch keinen MLX Support gibt in LMStudio, muss ich sie am Mac als GGUF laden, was deutlich langsamer ist. 31B mit ca. 7 Tokens/Sek, 26BA4B mit ca. 40. Tokens.
Die Qualität finde ich spitze. Wenn dann das MLX Modell funktioniert bin ich glaub ich mit Gemma4 sehr zufrieden.
Ich bezog es nur auf Gemma 4.
Zitat aus einem Post von charminBin grad am probieren von Gemma 4 31B
und Opencode mit GSD und LMStudio auf meiner 5090.
53 Tokens/sekunde und lässt sich schonmal flüssig arbeiten.
jetz mal schauen wie gut es is ...
Jawohl. Schau i Ma an
edit: ok geht nicht mit LMstudio.
hab den docker gepulled und probier mal opencode damit
overclockers.at v4.thecommunity
© all rights reserved by overclockers.at 2000-2026