KI-Modelle: GPT, xLSTM, Stable Diffusion, etc - Seite 52

Seite 52 von 56 - Forum: Artificial Intelligence auf overclockers.at

URL: https://www.overclockers.at/artificial-intelligence/ki-modelle-gpt-xlstm-stable-diffusion-etc_261430/page_52 - zur Vollversion wechseln!


Dune schrieb am 23.02.2025 um 21:05

Sie beruhigt, "sie" denkt nicht, sie ist sich nicht mal ihrer Existenz bewusst. Du bekommst nur Wahrscheinlichkeiten retour ;)

Gibt's eure Konversation auch als txt? Würd's tatsächlich gerne lesen, aber über die Screenshots isses bissi wild mit meinem attention tokes und context windows.


MightyMaz schrieb am 23.02.2025 um 21:40

Also ich finde es viel lustiger eine KI Unsinn erzählen zu lassen. Hier ein Beispiel für die Rechnung (9*5)+2 mit erhöhter Temperatur (das würde ewig so weiterlaufen).

click to enlarge


sk/\r schrieb am 23.02.2025 um 22:12

Zitat aus einem Post von Dune
Sie beruhigt, "sie" denkt nicht, sie ist sich nicht mal ihrer Existenz bewusst. Du bekommst nur Wahrscheinlichkeiten retour ;)

Gibt's eure Konversation auch als txt? Würd's tatsächlich gerne lesen, aber über die Screenshots isses bissi wild mit meinem attention tokes und context windows.

nein. ich bekomm klare antworten zurück. selbst auf Nachfrage.
weiß nicht was du meinst?

txt gibt's nicht weil man die konversationen nicht gesamt copy&pasten kann. :/


Daeda schrieb am 24.02.2025 um 09:26

Zitat aus einem Post von MightyMaz
Also ich finde es viel lustiger eine KI Unsinn erzählen zu lassen. Hier ein Beispiel für die Rechnung (9*5)+2 mit erhöhter Temperatur (das würde ewig so weiterlaufen).

click to enlarge

ich glaub dein lama hat einen schlaganfall

Zitat aus einem Post von sk/\r
nein. ich bekomm klare antworten zurück. selbst auf Nachfrage.
weiß nicht was du meinst?

er meint vermutlich das llms nicht denken und nur ohne es zu verstehen tokens (wortfetzen) nach wahrscheinlichkeiten ausspucken.

Zitat aus einem Post von sk/\r
txt gibt's nicht weil man die konversationen nicht gesamt copy&pasten kann. :/

wenn der rest der conversation "safe" ist, könntest du einfach die ganze unterhaltung via link teilen.


MightyMaz schrieb am 24.02.2025 um 09:42

Zitat
ich glaub dein lama hat einen schlaganfall

Eher eine assoziative Lockerung, ähnlich wie auch bei Menschen mit Psychosen. "Jetzt holt der Herr den Teller vom Bock zum Pferd" ist super. ;)
Schon interessant wie menschenähnlich die Sprachmodelle dann auch in diesen Randbereichen "denken".


charmin schrieb am 24.02.2025 um 09:52


Lesenswerter Artikel über Die Mixtral Architektur. Mixture Of Experts. Sehr lässig :)


Dune schrieb am 24.02.2025 um 10:00

Zitat aus einem Post von MightyMaz
Also ich finde es viel lustiger eine KI Unsinn erzählen zu lassen. Hier ein Beispiel für die Rechnung (9*5)+2 mit erhöhter Temperatur (das würde ewig so weiterlaufen).

Das finde ich technisch gesehen gar nicht so spannend.

Was hier passiert ist eine Überladung von Anfragen. Natürlich hat's beim gleichen Chat ein beschränktes context window. Das kann gar nicht anders ausgehen, als dass irgendwann BS Antworten kommen.

Wenn du einen Menschen mit sinnlosen Aufgaben überladest kommt irgendwann auch kein brauchbares Ergebnis mehr. Da imitiert die LLM Architektur den Menschen schon sehr gut..


böhmi schrieb am 24.02.2025 um 10:10

Zitat aus einem Post von sk/\r
txt gibt's nicht weil man die konversationen nicht gesamt copy&pasten kann. :/

Kann man ChatGPT nicht einfach nach einem Export der Konversation als .txt fragen?

Also irgendwie so:
Code:
export our conversation in a .txt-file from 23rd of february 2025 at 08:15am on


MightyMaz schrieb am 24.02.2025 um 10:39

@Dune: Der BS kommt von Anfang an wenn man an den Parametern dreht und das terminiert dann auch nie. Was da technisch gesehen passiert weiß ich nicht. Aber auch ganz generell produzieren die Modelle unglaublich viel Unfug wenn man nicht auf den üblichen Pfaden wandelt.


Dune schrieb am 24.02.2025 um 10:44

Ja aber ne Temperatur von 2 ist schon ein Fieberwahn für Rechenaufgaben. Ich kann auch nicht mehr int, x: sin(x2+sqrt(x))*e^x*e^(x+19)dx rechnen mit 42°C Fieber :D

Was du produziert hast mit den Parametern, ist eine technische Limitierung, die dann nachher mit Aufgaben überladen wurde, wofür LLMs ohnehin nicht geschaffen sind. Advanced Reasoning ist auch nicht die Stärke von Ollama.


MightyMaz schrieb am 24.02.2025 um 10:57

Dass Rechenaufgaben zu solchen sehr kreativen Texten führen können finde ich schon interessant. Fieberwahn ist wohl das passende Wort. Die Texte sind ja auch nicht einfach random, z.B. hat die Anspielungen auf Lehrer und Schüler ja einen Bezug zum Thema.


Dune schrieb am 24.02.2025 um 11:04

Weil man über Stochastik ohne Reasoning schlecht rechnen kann. LLMs sind extrem schlecht in Arithmetik. Es wäre interessant wie sich DeepSeek mit solchen Aufgaben tut. Reasoning ist dort ja viel besser.

Aber grundsätzlich, LLMs sind nicht zum Rechnen gemacht:
https://www.mindprison.cc/p/why-llm...for-calculators


Viper780 schrieb am 24.02.2025 um 11:21

Ich glaub Mathematik hat in LLM wenig verloren.
Das wird jetzt mit den Agent besser werden. Da fragt das LLM dann halt Wolfram Alpha und gibt die korrekte Antwort zurück


Dune schrieb am 24.02.2025 um 11:23

Wie funktioniert das eigentlich technisch genau, mit APIs? Wolfram kann ja nicht sämtliche Ergebnisse auf jede beliebige Rechnung cachen. Wenn reasoning wieder nur verweis auf VektorDB Ergebnis bedeutet, ist es ja kein reasoning. Verstehe die Architektur da noch nicht so ganz.

Wolfram ist extrem geil, habe ich damals im Studium auch viel verwendet.


Longbow schrieb am 24.02.2025 um 11:36

Zitat aus einem Post von Daeda
hat mich echt gewundert, dass der das snake game so easy mit einfachen prompts hinbekommen hat, ohne großartig iterieren zu müssen. dann hab ich mir gedacht, das liegt fix an python!

als vergleich hab ichs jetzt mit bolt.new erstellt und ich bin erstaunt!

https://snake-via-bolt.netlify.app/



liegt also nicht an python. snake ist wohl einfach ein gutes beispiel weils davon schon tausende beispiele gibt, von denen die AIs gelernt haben. aber auch die custom wünsche die ich angegeben hab, haben sofort tadellos fasziniert. also geht das auch ohne o3 schon ganz gut - bolt.new benutzt glaub ich claude sonnet 3.5
Ich behaupte auch, dass es an snake liegt. Ein ähnlicher Versuch mit 2er Schnapsen landet beim üblichen „technically not wrong“. Er verhaspelt sich aber ständig mit Atout/Farbzwang, 20/40 etc… und ich hab absichtlich ein einfaches Spiel gewählt.

Wollte es dann noch einfacher: „Hosn owi“ und auch da mühsam.

Habe gpt4 und claude probiert.




overclockers.at v4.thecommunity
© all rights reserved by overclockers.at 2000-2025