URL: https://www.overclockers.at/applications/ki-modelle-gpt-xlstm-stable-diffusion-etc_261430/page_15 - zur Vollversion wechseln!
Zitat aus einem Post von Daedaund das kann chatgpt mit dem "browser plugin" jetzt auch. bin gespannt, inwiefern sich das dann von bing unterscheidet. dort nervt die werbung ja schon a bissl.
Ist mir wohl nicht allein so gegangen:
https://www.golem.de/news/ki-im-pro...303-172777.html
Ist leider hinter ner Paywall ... somit ... tldr ?
Edit: heute gehts, evtl. lags am Adblock ka ?
"Akzeptieren und weiter" klicken ist keine Paywall... .
Da ist mMn nichts überraschendes dran, genau so funktioniert der ganze DeepLearning Stuff. Es wird probiert und probiert bis eine Lösung gefunden wird und validiert ob die Lösung gut oder besser ist als vorher. Bei ChatGPT machen das halt die User, wenn wir schreiben "das ist ein Schaas" dann sagt dass der Engine die Lösung war schlecht. Trial und Error.
Nur der Clou daran ist halt dass die Engine irgendwann halt gut bzw besser als ein Mensch wird. ABER, Kreativität hat sie halt nicht und neue Probleme werden sicherlich schneller von Menschen gelöst (heute), das ist aber auch nur eine Frage der Rechenleistung bzw wie schnell man Lösungen verifizieren kann.
Denke dass die Technologie trotzdem auf Dauer die Menschheit verändern wird.
In meinen Augen kann man das sicher mit der Revolution des Internets (Informationsaustausch) vergleichen.
Ich bezweifle ganz stark dass auch nur irgendein Parameter im ChatGPT Modell gelernt wird durch unüberprüfte Eingaben von normalen Menschen.
Probiert wird auch nichts. Es werden vorne Sätze reingestopft und hinten Sätze die als richtige Antwort gelten platziert. Danach wird der Satz durchs Netz propagiert und anschließend ein Fehler berechnet. Danach passiert ein
Gradientenabstieg und der Fehler wird durchs Netz backpropagated bis alle Layer durch sind. Probiert wird da nix, sondern Parameter angepasst die den Fehler verringern. Halt immer nur stückchenweise.
Empfehle die Videos von 3Blue1Brown zu Neural Networks / Gradient Descent etc. Der erklärts echt gut
ChatGPT hat mir gerade das empfohlen.. not sure if.. mal schaun
:ubeer: * -- dummes programm..
ok, now it get it .. es kennt mich mittlerweile recht gut oder doch nicht !
* 2 bierkrüge stoßen aneinander, aber trotzdem dumm, ich sauf schon lange kein Bier mehr, nur mehr Mineralwasser mit einem hauch von wein
Falls wem ganz fad is:
https://arxiv.org/abs/1706.03762
Das original Transformer Paper.
Hier einfacher erklärt:
https://jalammar.github.io/illustrated-transformer/
Hier ne playlist vom grant anderson über die Grundlagen von Neuronalen Netzen.
https://m.youtube.com/playlist?list...7000Dx_ZCJB-3pi
Ein guter Artikel auf heise, wie man Llama selbst ausprobieren kann:
https://www.heise.de/hintergrund/Gr...he-7624131.html
Seit gestern kann ich auch Bing ausprobieren, dass ja auch schon auf GPT4 läuft. Es ist schon deutlich präziser als GPT3.5. Was auch gut gelaufen ist, man kann Bing einen Link zu einer PDF gehen, zb zu wissenschaftlichen Arbeiten und diese von Bing zusammenfassen lassen.
Auch auf der technischen Seite wird probiert. Siehe dropout layer.Zitat aus einem Post von charminProbiert wird da nix, sondern Parameter angepasst die den Fehler verringern.
Zitat aus einem Post von HansmaulwurfAuch auf der technischen Seite wird probiert. Siehe dropout layer.
https://keras.io/api/layers/regular...layers/dropout/
Auch werden am Start die Weights per Zufall gesetzt.
Zitat aus einem Post von charminJa aber nicht während der Inferenz, sondern vorm Training.
Was du beschreibst ist hyperparameter Optimierung und Regularization. Dropout wird verwendet um Overfitting zu vermeiden.
Aus dem Link. Der Dropout Layer agiert während dem Training.ZitatThe Dropout layer randomly sets input units to 0 with a frequency of rate at each step during training time, which helps prevent overfitting
Siggi und Sheldon lachen immer noch über ChatGPT.. wie lange noch ?
Zitat aus einem Post von HansmaulwurfAus dem Link. Der Dropout Layer agiert während dem Training.
you will love Siggi
overclockers.at v4.thecommunity
© all rights reserved by overclockers.at 2000-2024