@Hansmaulwurf: aber ja, könnte man drüber streiten was genau jetzt mit probieren gemeint is. Theoretisch probierst nach jedem Trainingsbatch indemst auf dem validation set schaust wie gut das Netz generalisiert.
Ja, aber einstellen tust du den hyperparameter net während des trainings.Du definierst vorm Training das Verhalten und dann läuft das. Selbes mir temperature annealing bei softmax.
Probiert wird da nix, sondern Parameter angepasst die den Fehler verringern.
Dropout Layer droppen zufällig inputs während einzelnen Traininsschritten. Wenn sich das als vorteilhaft erweist, dann wird das übernehmen, insofern _probiert_ das Modell während dem Training Konfigurationsänderungen an der Struktur des Netzes.
Edit: um was es mir geht: wenn irgendein Hansl im Netz Chat gpt nutzt und dem als input irgend ein Wissen gibt. Dann wird das nicht einfach so übernommen.
Nein, aber es gibt einen reinforcement learning process wo er anhand von sowas lernen kann, bzw. sogar trainiert wurde:
Zitat
The creators have used a combination of both Supervised Learning and Reinforcement Learning to fine-tune ChatGPT, but it is the Reinforcement Learning component specifically that makes ChatGPT unique. The creators use a particular technique called Reinforcement Learning from Human Feedback (RLHF), which uses human feedback in the training loop to minimize harmful, untruthful, and/or biased outputs.
https://www.assemblyai.com/blog/how...actually-works/ Ich weiß aber nicht ob das Inputs sind von den Leuten die das supervised learning überwachen oder auch inputs die irgendwo von normalen Usern eingegeben wurden.
charmin
Super Moderator
Registered: Dec 2002
Location: aut_sbg
Posts: 13953
Über die Chatgpt details können wir gerne quatschen, aber bei den neuronalen Netzen bin ich nur seh oberflächlich informiert, da ist mein Input quasi eh schon aus
charmin
Super Moderator
Registered: Dec 2002
Location: aut_sbg
Posts: 13953
Elon Musk and others urge AI pause, citing 'risks to society'
Elon Musk and a group of artificial intelligence experts and industry executives are calling for a six-month pause in developing systems more powerful than OpenAI's newly launched GPT-4, in an open letter.
Die sehr spezifischen Ansätze die wir momentan haben, sind noch Jahre(zehnte) von etwas wirklich gefährlichem entfernt. Man sollte nur anfangen drüber nachzudenken. Denke ich - als lesser Intelligence