URL: https://www.overclockers.at/artificial-intelligence/github-copilot_265135/page_1 - zur Vollversion wechseln!
Hi, nachdem es hier ja ev. ein paar Wissende gibt wie die AIs so aufgebaut sind.
Ich arbeite mittlerweile recht viel mit ChatGPT & CoPilot weil sie viele Tasks extrem vereinfachen, besonders wenn es darum geht mal schnell Scripte für irgendwelche komplexeren Tasks zu generieren.
Das funktioniert prinzipiell recht gut, bleibt natürlich immer die Frage des Datenschutzes (und vermutlich kann die in Wahrheit niemand tatsächlich prüfen außer z.B. Microsoft selbst).
Mich würde das Prinzip von den Code-Vorschlägen vom GitHub CoPilot der z.B. in VS Code eingebettet ist interessieren.
Der schlägt ja automatisch weiteren Code oder Kommentare vor, d.h. der hat ja automatisch Zugriff auf alle Dateien die ich offen habe.
Jetzt lese ich z.B.: https://github.com/orgs/community/discussions/133245
Hä? Wie kann das Sinn machen? Um ähnlichen Code vorzuschlagen muss ja mein aktueller gelesen werden auf irgendeine Art und Weise?ZitatHow can Copilot provide responses that seem to know my code?
Copilot generates code suggestions based on the context provided within your current file or the prompt you've given it. It uses a language model trained on a vast amount of publicly available code and text, but it does not have the ability to access or read your specific codebase. This means that while it can generate code that looks like it fits within the context of what you're working on, it does not actually see your code.
)Ich bin da sicher nicht allwissend, aber beschäftige mich gerne damit ich habe privat und beruflich das ein oder andere LLM Projekt gemacht.
Zu deiner Frage, ja solche LLMs erarbeiten ihre recommendations immer über similarity. Dazu gibt's eine brutal umfangreiche Vektordatenbank, die vortrainiert ist. Es wirkt erstmal technisch unmöglich, ist aber für heutige Serverfarmen ein lösbares Problem. Insofern wird immer automatisch rund um den Problem herum gesucht. Oder eben, wenn du eine Vorlage zum coden möchtest und noch keine Idee hast (wie ich oft), ähnliche Probleme als Ausgangspunkt genommen.
Dazu kommt, dass viele LLMs mittlerweile mit History arbeiten. Dein Arbeitsbereich, deine Anforderungen und auch deine Vorkenntnisse werden dadurch berücksichtigt um für dich die Lösung "besser" zu machen. Das ganze hat natürlich auch seine Schattenseiten und ein bias Problem.
Ob und was kommuniziert wird an die big boys ist im Endeffekt: IT Richtlinien, config, Architektur und leider auch ganz viel Vertrauenssache...
Kanns im Detail auch nicht sagen - vermute VS Code hat natürlich auf deinen Code Zugriff und wird bevor der zu Copilot geschickt wird diesen bereits in Vectoren abbilden (oder wie auch immer).
Glaub die Grundaussage ist, dass MS nicht deinen Code zum Training von Copilot verwendet. Alles andere ist zumindest für mich irrelevant.
bei mir in der Firma wird Co Pilot genutzt da, dieser laut der zuständigen Personen die Daten nicht weiterverarbeitet. Bin mir jedoch nicht sicher ob das aufgrund des Firmenacc ok ist oder, dass das generell so ist bei Co Pilot
"but it does not have the ability to access or read your specific codebase"
So wie ichs verstanden hab: Github Copilot (Cloud) keinen direkten Zugriff auf deine Codebase. Copilot (lokal) hat natürlich Zugriff, und erstellt aufgrund deiner Codebasis einen Index, der dann für die weitere Kommunikation verwendet wird.
Aber wie genau das abläuft, wenn man explizit mehrere Files zum Prompt für Chat/Agent hinzufügt, frag ich mich auch.
Gibt einen Artikel dazu, der sehr detailliert ausschaut:
Danke für den Artikel.
Wenn ich mir den so ansehe, dann schickt der CoPilot hier aber schon Daten in Klartext (halt nicht ALLES sondern nur kleine Ausschnitte - aber kannst halt nicht kontrollieren was) an den CoPilot Proxy (=Cloud von Microsoft).
ZitatIt then constructs a JSON payload that includes:
The user’s chat message.
The selected code snippets or textual context (especially if you used @workspace).
Metadata (extension version, user session, etc.).
Bei auto-suggest wird "Code" mitgeschickt, das ist der "context", ohne geht's schwer.
Nachdem unsere Firma nun auch Copilot CLI freigeschalten hat, verwende ich das nun ein wenig.
Ärgerlich finde ich, dass Copilot (VS Code) und CLI nicht die Config für Agents etc sharen.
Hab mir da diese Woche einen Agent gebastelt, der mir aus meinen Notizen und den Kommentaren der Mitarbeiter Reviews für den jährlichen HR-Prozess erstellt. Das klappt ganz gut, auch wenn ich noch ein bisschen mehr Context füttern muss (z.B. was von einem Junior vs Senior erwartet wird). Model war Claude Sonnet oder Opus.
Hat von euch jemand Copilot CLI oder Alternativen wie OpenCode in Verwendung?
Für Code Generation hab ich bisher durchwachsene Erfahrungen gemacht (alles mit Claude Sonnet).
z.B. konnte Copilot mir durch füttern eines Jira Tickets (Atlassian MCP), Figma Designs und API Sample Response recht gut neue Componenten mit der selben Struktur wie im bisherigen Projekt erstellen, allerdings waren Types dann nicht 100% korrekt und ein paar andere Krankheiten, die ich manuell gefixed habe, aber als Kickstarter spart sowas schon Zeit.
Für die Migration von einer simplen Deno/Fresh Webseite zu Tanstack Start hat sich Copilot dann aber in einer Schleife gefangen und war überfordert. Auch hat es völlig irrelevante npm packages installiert.
Da müsst ich mal versuchen, ob da das Linken der entsprechenden Docs etwas besser macht, weil das Framework vergleichsweise neu ist.
Ich verwende seit ca. halbem Jahr ausschliesslich OpenCode as Agent (hab mir die anderen nie naeher angeschaut). Wir verwenden aber schon ein gut angepasstes setup (laeuft in docker [kleine sandbox], pre-konfigurierete mcp, skills, commands, etc.).
Zitatz.B. konnte Copilot mir durch füttern eines Jira Tickets (Atlassian MCP), Figma Designs und API Sample Response recht gut neue Componenten mit der selben Struktur wie im bisherigen Projekt erstellen, allerdings waren Types dann nicht 100% korrekt und ein paar andere Krankheiten, die ich manuell gefixed habe, aber als Kickstarter spart sowas schon Zeit.

Noch wichtig für docs, eine recht aktuelle Erkenntnis:
Docs runterzuladen (sofern als .md verfügbar) und in AGENTS.md zu verlinken, ist besser als sie per MCP oder Skills online zu fetchen:
(thinking wechselt zwischendurch auf chinesische Schriftzeichen, was eher beunruhigend ist).Agents.md Files lokal laden und lesen hat bei unseren Tests auch besser geklappt.
Ich hab mir vor Weihnachten spec-kit angesehen (von Github / Microsoft ein KI Framework zum erstellen von Tickets)
Kontext ist immer wichtig - das Wissen zu transportieren und in verdauliche Häppchen bereitzustellen habe ich noch nicht gelöst. Die Kontextgrenzen der aktuellen KI sind auch für kleine Projekte zu bescheiden.
Ich bin aber aktuell wieder mehr mit lovable dran an Prototypen zu werkln
overclockers.at v4.thecommunity
© all rights reserved by overclockers.at 2000-2026