"Christmas - the time to fix the computers of your loved ones" « Lord Wyrm

KI-Modelle: GPT, xLSTM, Stable Diffusion, etc

phono 27.01.2023 - 13:10 222300 759 Thread rating
Posts

Viper780

Er ist tot, Jim!
Avatar
Registered: Mar 2001
Location: Wien
Posts: 50042
Zitat aus einem Post von Dune
Du kannst sagen Vektor1 = bla1, Vektor2 = bla2, mach mir Matrix M mit Rechenoperationen Blabla. Seh da kein Problem, wenn man weiß, wie man es mathematisch formuliert

Vektor Grafik ;)
Aus einem jpg ein svg erzeugen und mit einer anderen Grafik verheiraten

Dune

dark mode lover
Registered: Jan 2002
Location: Wien
Posts: 10140
Schreib mir gaaaanz genau (wissenschaftlich genau) was die Daten Strukturen sind, was es können soll, und ich mach dir ein py oder ipynb für nix

Daeda

Here to stay
Registered: Aug 2007
Location: Graz
Posts: 1545
github copilot kann jetzt auch claude (und bald gemini):

hynk

Super Moderator
like totally ambivalent
Avatar
Registered: Apr 2003
Location: Linz
Posts: 11049
Zitat aus einem Post von Viper780
Hätte gehofft eine KI kann mir die Arbeit abnehmen

Sind ja auch language Models.

@Dune&Longbow
Seht euch Mal Cline an (ehem. claude.dev) am VSCode Market. Da könnt ihr Claude über VSCode direkt auf euer Repo loslassen.
Benötigt aber API Credits. Kosten sind aber überschaubar und transparent.

Mit einer Kombination aus o1 preview für Konzeption und Claude direkt in VSCode fahr ich bisher besser als mit 4o jemals möglich war.
Bin ja so richtig kein Programmierer und hab es innerhalb weniger Stunden hinbekommen, für eine App mit der ich mir das Arbeitsleben erleichtern will ein Grundgerüst und die ersten Module zu bauen.
React, node, mongodb. Bild Upload, Crop & Auto Korrektur, Positionierung am Canvas, Textblöcke setzen, export to PDF und fertig ist das Fotoprotokoll. So ist zumindest der Wunsch. Upload und einfache Korrekturen funktionieren.

Wichtig ist es jedenfalls die Files eher klein zu halten, und den Code so gut es geht zu splitten, damit man nicht übers context window kommt. Weil Fehlermeldung bekommt man ja natürlich keine... sind ja unfehlbar.

*edit
Daedas Post übersehen... GitHub hat aufgeholt... Zum testen wäre es trotzdem. Ich fand bei Cline gut wie man den context herstellt sehr gut. Copilot ist da etwas undurchsichtig.

heute wurde auch GPT Search auf uns losgelassen. Gibt auch schon eine Chrome Extension um es als default search zu setzen.

Daeda

Here to stay
Registered: Aug 2007
Location: Graz
Posts: 1545
Zitat aus einem Post von hynk
Ich fand bei Cline gut wie man den context herstellt sehr gut. Copilot ist da etwas undurchsichtig.

bei copilot kannst entweder mit /workspace das ganze projekt übergeben und er sucht sich selbst (teilwiese fail) files mit context raus.
aber seit ein paar tagen/versionen kannst du ihm im chat gezielt mehrere files zum context ins chatfenster ziehen, das find ich sehr praktisch. und das direkte einfügen der änderungen von copilot funktioniert jetzt auch super mit den diffs gleich wie bei git changes.

@app programmieren: schau dir mal das kürzlich angekündigte github sparks an, der anwendungsfall würde imho genau in so mini apps fallen.

hynk

Super Moderator
like totally ambivalent
Avatar
Registered: Apr 2003
Location: Linz
Posts: 11049
Ah, sehr cool. Danke.

Sparks steht noch auf meiner Liste. Kann gut sein dass das hinhaut für die Anwendung.

Dune

dark mode lover
Registered: Jan 2002
Location: Wien
Posts: 10140
Haben wir hier Leute die LLMs/RAGs auch in professionellem Kontext schon mal zusammen gebaut und gebenchmarked haben?

Spiel mich seit ein paar Wochen mit einer relativ stabilen und fundierten Architektur und Tool Chain, hat einige verschiedene Modelle, die laufen. Der Use-Chase ist Recht klar definiert und hat (bis jetzt) immer die gleiche Datenquelle.

Der Punkt, wo ich mir grad noch sehr schwer tue, ist eine sinnvolle Metrik zu definieren bzw. finden.

Irgendwelche Erfahrungen hier?

hynk

Super Moderator
like totally ambivalent
Avatar
Registered: Apr 2003
Location: Linz
Posts: 11049
Bis auf Basteleien, leider nein. Und Messbarkeit war bei ein Thema.
Bei Syntex, was ich aktuell für die Buchhaltung teste stellt sich die Frage auch nicht.
Kann's aber empfehlen. Macht einen überraschend soliden Eindruck.

Dune

dark mode lover
Registered: Jan 2002
Location: Wien
Posts: 10140
Die Metriken weiter zu recherchieren, war recht spannend, da gibt's schon lustige Konzepte, wo sich Modelle verhalten sollen wie Lehrer, die einen Schüler Aufgaben geben und man anhand der Aufgabe Rückschlüsse über die Kohärenz der Informationen bekommt. Ich hatte leider nur ein paar Vormittag bisher Zeit in das Thema zu versenken, es war aber trotzdem spannend, was es für Konzepte gibt um Intelligenz und Wahrheitsgehalt zu beurteilen.

Habe heute einen sehr lustigen Artikel beim ORF über GPTs o1 Widerstand zur Abschaltung gelesen. Klingt als hatte jemand von einer Coronademo einen Artikel über Terminator verfasst... Ich bin sehr gespannt ob ich dazu noch brauchbare Quellen finde, die hier auch auf Details eingehen. So wie das recherchiert ist könnte es auch 1:1 in Kurzform in der Heute stehen:
https://futurezone.at/produkte/chat...content=related

KruzFX

8.10.2021
Avatar
Registered: Aug 2005
Location: ZDR
Posts: 2010
Jetzt wird's dann zum fürchten:

https://m.economictimes.com/magazin...google_vignette

Gängige KI Modelle versuchen sich selbst zu kopieren und zu lügen, um nicht abgeschaltet oder gelöscht zu werden...

Kirby

0x20
Avatar
Registered: Jun 2017
Location: Lesachtal/Villac..
Posts: 906
Im Artikel ist aber nur von GPT4o die rede.
tdm bissl zum fürchten ja

mat

Administrator
Legends never die
Avatar
Registered: Aug 2003
Location: nö
Posts: 25427
Wow, so ein populistischer Blödsinn. Das Modell "lügt" nicht, weil es keine Ahnung von Wahrheit hat. Es führt einfach nur etwas Gelerntes in unnachvollziehbaren Wegen aus. Wer da eine Shell mit Admin Rights anhängt, ist selber schuld. Nicht weil das Modell, dann Böses tun will, sondern weil es irgendwas tut und nicht mal weiß, ob es gut, schlecht, richtig oder falsch ist.

disposableHero

Addicted
Avatar
Registered: Mar 2001
Location: A&EE
Posts: 438
Wurden wahrscheinlich mit 2001: A Space Odyssey trainiert :D

Populistisch sind die Artikel, ja. Und dass die Sprachmodelle nicht nach moralischen Standpunkten bewerten ist klar. Aber das Ergebnis ist durchaus bemerkenswert.

mat

Administrator
Legends never die
Avatar
Registered: Aug 2003
Location: nö
Posts: 25427
Ich finde die Problemlösungswege von KI-Modellen auch immer wieder bemerkenswert; teils magisch, teils ernüchternd. Ich finde auch Security von KIs wichtig, aber es ist absurd, zu glauben, dass KI sich "heraushacken" kann, nur weil es durch einen Prompt irgendeinen Shell Command auswirft, der vorgibt, dass irgendein Config File gepatched wird usw.

KI-Security sind für mich Policies, die sicherstellen, dass KI-Modelle - speziell in der heutigen Qualität - nie die Kontrolle über "the nuclear button" oder die grauslichen Boston Dynamics Dinger mit Live/Death-Decisions bekommen dürfen. Meinem Verständnis ist das deutlich einfacher als einer KI beizubringen, was richtig und falsch bzw. es tun darf oder nicht tun darf. Wie beim Menschen. :)

Dune

dark mode lover
Registered: Jan 2002
Location: Wien
Posts: 10140
Jep, diese ganzen Schlagzeilen sind schon hart engineered. Wenn man sich da die prompts genauer anschaut, fällt dem geschulten Auge schon auf, dass ein LLM eben genau in die Limitierungen rennt, die ein LLM eben hat.

Nur leider erwähnen das 99% der Quellen nicht, die über diesen Skandal berichten.
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz