Deleted84616
|
Falls Interesse an einem Erfahrungsaustausch besteht wie man mit LLMs interagiert, fänd ich dazu einen thread spannend  Ein aktuelles Beispiel: Setze hier fort und Stelle mir den Python Code zur Verfügung um die Simulation auf meinem PC durchzuführen.
Der Code soll vollständig und fehlerfrei sein. Prüfe den Code ob er lauffähig ist und reproduzierbar ist. Verwende die Parameter A, B und C für die blabla der runs als Variable. Ich bin schon drauf gekommen, dass alles spezifisch formuliert sein soll. Die Erwartung auch definiert. Momentan nutze ich vor allem alte Chats und adaptieren dann irgendwo selektiv im Austausch ein paar Zeilen um den damaligen Ansatz in die richtige Bahn zu lenken. Das geht überraschend gut, für mich fast besser als immer neue prompts, wo ich dann trot ähnlichen Anfragen andere Antworten bekomme. Im Beispiel oben: - solche Forderungen wie prüfe den Code... Macht er das wirklich oder kann ich mir das sparen? - selbes gilt für reproduzierbar und fehlerfrei Möcht da gern noch bei so Kleinigkeiten effizienter werden im Austausch, weil's sonst nur sinnlosen token kostet und das Ergebnis verwässert
Bearbeitet von Deleted84616 am 12.10.2025, 11:35
|
rad1oactive
knows about the birb
|
Wenn ich etwas komplexere fragestellungen hab, lasse ich mir von claude einen prompt für chatgpt oder copilot schreiben  Funktioniert erstaunlich gut.
|
Deleted84616
|
Spannend, danke! Das habe ich auch schon oft gehört, dass Leute das auch oft nutzen um zB Bilder zu generieren, weil da ewig viel falsch laufen kann. Ich habe da auch neulich ziemlich viel Zeit versenkt um eine Präsentation aufzuhübschen, leider sind solche Image jobs imho oft pita, wenn man keine subscriptions hat. Mich hätte bei der Frage aber wirklich die Taxonomie im Modell interessiert, wie das GPT Betreiber regeln. Irgendwie muss ja bei jeder Frage bedacht werden wie viel Rechenleistung investiert wird. Ich kann jetzt einen hyperprompt machen, wo alles spezifiert ist auf einer A4 Seite, und wenn's ins attention window passt sollte es rein theoretisch müsste es rein theoretisch bessere Ergebnisse liefern. Nicht aber wenn die Modelle so getuned sind solche unrealistischen specs zu ignorieren. Und da weiß ich einfach nicht wie man damit umgeht. Wegen ratings, ich verstehs wenn solche Fragen hier 97% der Leute nicht interessieren, ich interessiere mich aber leider wirklich für sowas
|
Viper780
ElderEr ist tot, Jim!
|
Ich gebe als Kontext meist dazu "du bist ein Senior Requirements Engineer und musst einem Junior Developer folgendes erklären"
Oder "Erkläre mir, ein Junior Developer, den Code" und als follow up "Wie kann man ihn verbessern"
|
Deleted84616
|
Auch eine interessante Strategie, danke! Der eine AI shiller in meinem Feed macht das auch immer so à La 'du bist Quantenmechaniker' oder 'ein Spezialist für Bohrmaschinen'.
Muss zugeben ich hab's selber noch nie probiert, aber wenn's mit Code auch für funktioniert, y not. Werd's mal versuchen.
|
Viper780
ElderEr ist tot, Jim!
|
Kontext war früher deutlich wichtiger als bei den aktuellen Modellen. Ich finde die Ergebnisse aber nach wie vor besser auf den Punkt gebracht.
|
Deleted84616
|
Ich glaub es kommt darauf an, wie man es nutzt und was man sich erwartet. Habe weniger Interesse an Erklärungen als effizientem Code, deshalb würde ich dein Junior Senior Rollenspiel so wahrscheinlich nicht machen wollen.
Aber das macht ja nichts, mit der Idee kann man ja sehr flexibel umgehen. Das Besserwerden der Modelle merke ich auch im Alltag sehr. Auch wenn Copilot immer noch gefühlt most available crap ist, wird er auch immer besser. Und GPT sowieso. Sonst habe ich eigentlich kaum Bedarf andere zu verwenden, auch wenn Perplexity und Claude für geeks ja auch toll sein sollen.
Bearbeitet von Deleted84616 am 13.10.2025, 00:43
|
Viper780
ElderEr ist tot, Jim!
|
Das senior / junior im Kontext ist Großteils dafür da wie ausführlich die Erklärung sein soll und ob erklärt wird was eine Schleife ist.
Ich bin zwar ein schlechter Programmierer, aber Code kann ich meist gut verstehen. Da geht's mir darum ob das Modell den Code richtig interpretiert und wie strukturiert. Da kommen schon die ersten Verbesserungen (ähnlich einem SAST Tool). Danach fällt das Referenzieren für die gewünschte Erweiterung leichter. Dies geht auch sehr gut um generierten Code verbessern zu lassen.
ChatGPT und Gemini sind meine Premium Subscriptions ausgelaufen. In der Firma habe ich Copilot mit GPT-5 und privat Perplexity (das Gratis Jahr als Paypal User)
|
Weinzo
Become like water
|
Prompts generell: lieber einzelne Prompts als langer Text. Neues Thema, immer neuer Chat. 1.) der KI sagen "du bist Experte für "..." 2.) Aufgabe formulieren 3.) Zielsetzung "erkläre kurz und knapp", "ertelle einen Socialmedia Post mit 200 Wörtern", "erkläre für einen 12 Jährigen".. 4.) Weiterentwicklung, Ergebnis von 3/10 auf 10/10 bringen: "was benötigst du von mir noch für ein perfektes Ergebnis?", "recherchiere gründlich im Internet", "hinterfrage das Ergebnis gründlich"... Man muss auch wissen, dass die KIs nur bis zu einem Bestimmten Datum trainiert sind, für tagesaktuelle Infos sollen sie das Internet durchsuchen. Prompt Optimizer: Prompts kann man sich dann auf https://platform.openAI.com optimieren lassen.
|
7aph0
photoaddict
|
An chatgpt nervt mich gewaltig, dass er schon gemachtes beim verfeinern wieder "vergisst" (aus 120 Datenzeilen macht er dann random nur 25 z.B.) oder dass er immer ewig nachfragt willst noch noch das dazu, brauchst du noch, soll ich das machen?
Als ob er pro Anfrage bezahlt wird und mich hinhält. Ist die Proversion, früher dachte ich ok dass ist halt um die Freeuser rumzukriegen, die den Cooldown nicht abwarten wollen
Wie treib ich ihn das aus
|
Deleted84616
|
Leider sind LLMs nicht für Numerik gemacht. Hast du Blueseek probier? Wäre ne Idee. Ich lass mir auch gerne Formel oder Code plotten und rechne selbst. Falls das für dein Thema auch eine Option ist.
|
fresserettich
Here to stay
|
Prompts generell: lieber einzelne Prompts als langer Text. Neues Thema, immer neuer Chat.
1.) der KI sagen "du bist Experte für "..." 2.) Aufgabe formulieren 3.) Zielsetzung "erkläre kurz und knapp", "ertelle einen Socialmedia Post mit 200 Wörtern", "erkläre für einen 12 Jährigen".. 4.) Weiterentwicklung, Ergebnis von 3/10 auf 10/10 bringen: "was benötigst du von mir noch für ein perfektes Ergebnis?", "recherchiere gründlich im Internet", "hinterfrage das Ergebnis gründlich"...
Man muss auch wissen, dass die KIs nur bis zu einem Bestimmten Datum trainiert sind, für tagesaktuelle Infos sollen sie das Internet durchsuchen.
Prompt Optimizer: Prompts kann man sich dann auf https://platform.openAI.com optimieren lassen. ja das + ein Rollenbild zu erklären (siehe Viper) benutzt ich auch meist. Ich frage gern nach was noch offen ist, siehe 4 oben. Beim Code versuche ich selten gleich eine große ganze Aufgabe zu stellen sondern oft nur Teilaufgaben. neulich ist aber für eine Frequenzanalyse aus einem Video-File bzw. daraus extrahierten Audio File sehr schnell ein ganzes Skript rausgekommen ... finde den Thread gut, denke man kann hier viel lernen. Aber wie man schnell sieht gibt es sehr viele Anwendungsgebiete wo jeder unterwegs ist ...
|
rad1oactive
knows about the birb
|
Auch interessant zu fragen: Was fehlt deiner meinung noch, ist etwas unvollständig? Bringt oft noch interessante Ansätze.
Oder: nimm eine Kontraposition ein und beleuchte das Thema aus einer ablehnenden Perspektive.
Gibt dem ganzen einen anderen Blickwinkel, weil er ja immer so "bejahend" ist.
|
Balu
BBQ
|
Darf ich diesen Thread auch für Anfängerfragen nutzen? Egal ob ChatGPT oder Copilot - hätte gerne eine Schriftart identifiziert.  Copilot verweist auf WhatTheFont von MyFonts, kommt keine zufriedenstellende Antwort. Kann ich per promt in so einem Fall eine neue Grafik erstellen lassen, wo meine Worte in exakt dieser Schrift generiert werden? Oder nutz ich dafür die falschen Tools?
|
charmin
Vereinsmitgliedstay classy!
|
probiers einfach aus. haus ins google nano bana und sage er soll ein logo in genau dem stil mit dem text von dir erstellen.
|