Tosca
Here to stay
|
Ohne dass ich da in der Theorie bewandert bin würde ich nach meinem praktischen Erfahrungen einer KI eher zutrauen einen Nobelpreisroman zu schreiben als 2+2 zusammenzuzählen
|
othan
Layer 8 Problem
|
Jo eh, und Firmen wie Inspectiv werden die große Kohle mit Security Audits machen…oder halt die andere Seite mit Injections etc  Warum soll ich Geld in Security Audits verbraten, wenn ich eine Versicherung abschliessen kann ? Ich glaub die Firmen sehen nur den schnellen Erfolg, der sich damit erzielen lässt. Das Hardening wird ja jetzt schon bei vielen Firmen weggespart. Reicht ja, wenn man erst dann reagiert, wenn es jemand meldet. Ob es dann jemand (oder etwas) fixen kann, ist dann eine andere Frage.
Bearbeitet von othan am 20.02.2026, 11:29
|
mr.nice.
security baseline pusher
|
Dafür können sich Agents via MCP einfach Menschen anmieten: https://rentahuman.ai/  Die mechanischen Schließsysteme von IT-Infrastruktur werden sich nicht wie von Zauberhand öffnen, nur weil irgendeine AI irgendeinen Menschen angemietet hat. Und das ist gut so!
|
22zaphod22
chocolate jesus
|
@zaphod Kannst die Frage bitte ein bisschen lesbarer formulieren? Steh grad auf der Leitung. Ich habe eigentlich zu wenig Wissen zum tatsächlichen Einsatz von KI im täglichen / produktiven Einsatz um die Frage wirklich konkret zu stellen. Ich versuche es so: Laut meinem Verständnis (und was ich hier im Thread lese) kann so eine KI auf Basis erlernter Daten Lösungen liefern, die dem Datenmaterial (und dem darin enthaltenen "Skill-Level") entsprechen. Führt der Einsatz von KI zu einer Art Entwicklungsstillstand? Immer wieder das gleiche? Zwar günstig und schnell aber ohne Fortschritt.
|
TOM
LegendI Need More Space
|
Mathematik und Programmierung sind durch die formale Verifizierbarkeit (automatisierte Validierung von KI-Ergebnissen, im Vergleich zu statistischer Plausibilität bei Texten) die ersten Domänen, in denen KI-Systeme uns Ownen werden.
Diese massive Beschleunigung der Workflows werden zum neuen Standard werden. Der "10x/100x" Programmierer wird die neue Erwartungshaltung, dementsprechend mehr workload steht an.
Ein Aspekt den ich dabei kritisch sehe: Durch diesen massiven Output-Zuwachs könnte es ein gefährliches Defizit im Wissensaufbau geben. Wir prompten oberflächlich, statt in die Tiefe zu gehen.
Das merke ich schon selbst bei mir und sehe es noch stärker bei Junior-Kollegen "<inserAIAgent> hat mir gesagt ..."
Im Gegensatz zu Google/Wikipedia ersetzt KI nicht den Suchprozess, sondern delegiert die Ausführung, was zu einer Entkopplung von Ergebnis und Verständnis führt.
Analog zum autonomen Fahren steigt die systemische Sicherheit (weniger Fehler), während die individuellen Kompetenzen degenerieren und verbleibende Fehler aufgrund mangelndem Wissen fataler ausfallen.
buckle in
|
rad1oactive
knows about the birb
|
Was ich als Laie so mitbekomme von reddit, youtube, aber auch einigen consultants: ja. AI lernte ursprünglich von Human generated content. Mittlerweile wird immer mehr AI content jnd slop produziert, der nicht immer der Qualität/ den Ansprüchen genüge tut. Insofern flacht die Lernkurve der AI hier ab.
|
semteX
liebt die große KI
|
ja aber was für eine lernkurve? die AI kann doch eh schon alles für 99.9% aller anwendungsfälle. das einzige was der AI noch fehlt ist Scope und Context. Also das, was den meisten Developern auch gern mal fehlt  ich habe das gefühl es wird überschätzt, mit welchem trivial ******* sich 90% der zeit herumgeschlagen wird.
|
InfiX
she/her
|
Mittlerweile wird immer mehr AI content jnd slop produziert, der nicht immer der Qualität/ den Ansprüchen genüge tut. Insofern flacht die Lernkurve der AI hier ab. "flacht die Lernkurve ab" ist aber ein sehr starker euphemismus für "eating its own sh*t"
|
smashIt
master of disaster
|
was war das letzte ergebnis, wo sie ki auf erfolgsrate abgeklopft haben? 3,5% max?
ich denke es spricht eher für den generellen zustand der it-branche, wenn ein glorifiziertes auto-complete mit 96,5% versagenswahrscheinlichkeit, den boden mit euch aufwischen kann.
|
Gräflicher
Here to stay
|
was war das letzte ergebnis, wo sie ki auf erfolgsrate abgeklopft haben? 3,5% max?
ich denke es spricht eher für den generellen zustand der it-branche, wenn ein glorifiziertes auto-complete mit 96,5% versagenswahrscheinlichkeit, den boden mit euch aufwischen kann. Kommt halt sehr auf den Einsatzbereich an. Bei manchen Dingen hast wohl eher 95% Erfolgsrate. Nicht für alles braucht man die top-erfahrenen Experten. Als Junior bist du jetzt schon durch eine KI zu ersetzen. Als so mittelmäßiger Allrounder wird es bald soweit sein und als erfahrener Experte hast du halt noch ein paar Jahre Galgenfrist. Klar, die Top-Enwickler finden immer ihren Job, aber was hilft das den restlichen 95%? Außerdem ist es ohnehin eine trügerische Sicherheit: Kann gut sein, dass es dir dann geht wie dem besten, erfahrensten Pferdekutschen-Hersteller - man hält es zwar ein wenig länger aus als der Rest aber irgendwann hat einem die Entwicklung dann doch eingeholt.
|
mr.nice.
security baseline pusher
|
Es gibt ja bereits Ergebnisse des "first proof" Tests, da wurden KIs mathematische Probleme vorgelegt, für die es zwar korrekte Lösungen gibt, die aber ganz bewusst nicht veröffentlicht wurden. Für 2 von diesen 10 Problemen konnten KIs eigenständig korrekte Lösungen finden, ohne auf Lösungshilfen in den Trainingsdaten zurückgreifen zu können, weil eben nicht veröffentlicht. Für vier weitere Probleme konnten wahrscheinlich korrekte Ergebnisse gefunden werden, allerdings mit menschlicher Unterstützung. Ob das jetzt viel oder wenig ist, das mag jeder für sich selbst entscheiden. Es ist jedenfalls so, dass KIs bereits heute kreative und originelle Lösungen finden können. Und man kann davon ausgehen, dass dieser Prozess erst ganz am Anfang steht, KIs also immer besser darin werden, eigenständig Lösungen für ihr unbekannte Probleme zu entwickeln. https://www.scientificamerican.com/...ults-are-mixed/
Bearbeitet von mr.nice. am 20.02.2026, 13:43
|
InfiX
she/her
|
meanwhile: https://www.techradar.com/pro/recen...amazon-servicesA report by the Financial Times (FT) notes a 13-hour interruption in mid-December 2025 was the result of Amazon's Kiro AI coding agent, which had reportedly decided to delete and recreate the environment.
|
Earthshaker
Here to stay
|
Ich finds schon krass was aktuell so passiert. IT Infrastuktur global hier. Mit indischen Devs (ich habs mir ned ausgesucht  ) im Rücken. Ich kann es quasi schon fühlen wie der Laden um die Devs schrumpfen wird, die FiBu, das Controlling und Marketing wegautomatisiert wird aber gleichzeitig die Qualität und die Geschwindigkeit durch die Decke geht. Wenn der MS Heinz sagt in den nächsten 12-18 werden einige Bürojobs wegfallen... glaub ich. Hätten wir initial genug Kapazitäten um ein paar Baustellen grade zu ziehen wäre das heute schon möglich. Ich bin wirklich gespannt wie sich das auf den indischen Markt auswirken wird. Indien wettet hart darauf, dass AI bei denen durchschlägt aber... Wer geht noch nach Indien wegen den Kosten wenn ein fitter Dev mit Chatgpt vor Ort qualitativ Lichtjahre voraus is? Spannend spannend.
|
semteX
liebt die große KI
|
haha nice, ein smashit shitpost ohne ahnung vom feinsten  respekt brudi! Diese untersuchungen kannst du _alle_ vergessen. erfahrungen vom november haben heute _zero_ gültigkeit. ich mein es is jetzt ned neu, dass du keinen plan hast, aber das is schon ein hot-take  Wenn ich als Senior etwas prompte und einen plan erstellen lass... und das Modell rückfragen stellt.. und ich mir denk "ja shit... stimmt, das hat keiner bedacht... wie soll sich das da eigentlich verhalten in dem fall..." dann is das mehr als man von 95% der entwickler bekommt. literally in minute 0.5 des arbeitens. ned nach tagen, wenn man in den untiefen drauf kommt, dass sich das alles ned ausgeht von der architektur und logik. @Earthshaker: richtig! ich meinte die woche "ich brauch dringend den inder, ich kann das alles nicht mehr" und irgnedwer meinte "das is aber ned nett" "ich mein wegen am mittagessn, ich brauch mein comfort food vom food truck. den inder zum entwickeln wird keiner mehr brauchn, das macht die AI mit operator in der selben timezone"
Bearbeitet von semteX am 20.02.2026, 13:13
|
Bogus
C64 Generation
|
Wenn ich eure Erfahrungen und Predictions so lese, dann sollte ich mir wohl überlegen den aktuellen Auftraggeber zu behalten. Behördenumfeld/Förderwesen, Reporting an EU Kommission, aktuell ~500K Zeilen PHP/Laravel/Blade (wachsend) und 2 Mutationen davon.
Hat mit Coden kaum was zu tun. Primär ist es das Abbilden der ganzen 'Logik' in Algos und Formularen. (Darum will ich eigentlich weg. Bin im Backend + Automation stark. Business Logic ist nicht meine Welt. Frontend auch nicht.)
Das ganze System kann man imho nicht 'erklären', als 'Prompt'. Also aktuell (noch) nichts was eine KI schaffen würde. Der PM meines Auftraggebers hat diese ganze Hydra zwar im Kopf und kennt sich großteils besser aus als die zuständigen Behörden, aber er kann sich nicht verständlich/technisch erklären. Meine Kunst besteht primär darin zu 'riechen', was er eigentlich will.
Außerdem betreiben wir mehr eine Art 'Forschung', wie man diese ganzen Abläufe und Abhängigkeiten technisch abbildet. Die Anforderungen von Kundenseite entstehen während dem Betrieb. Pures TDD. Sozusagen: Fangt schon mal an, wir sagen euch was wir brauchen, wenn wir es sehen.
BTT: Ich kann mir nicht vorstellen, dass eine KI das umsetzen könnte, weil ich persönlich nicht wüsste, wie man diese Anforderungen definiert. Ein Großteil vom Code ist eigentlich die 'Anleitung'. Und die Vorschriften/Anforderungen ändern sich oft dermaßen grundlegend, dass es oft ein Wunder ist, dass noch nichts explodiert ist.
Was sagt eure Glaskugel dazu?
|