JDK
Oberwortwart
|
Ob selber gehosted oder nicht ist da halt irrelevant, wenn du dem Zugriff auf alle Dienste und Daten gibst. Der Code von dem Ding wurde nichtmal vernünftig reviewed und eine LLM hat freie Hand.
Ein Service hat normal nur Zugriff auf die Daten die ich dem Service gebe - das ist mit isoliert gemeint.
Der Angriffsvektor und auch das Failpotential ohne Fremdeinwirkung ist bei dem Teil halt so unendlich größer als bei deiner Mail App am Smartphone.
|
Snoop
Here to stay
|
Absolut, aber ich mach dem nur eigene Accounts. ich geb dem ja nicht auf meine normalen Accounts irgendwelche Rechte
|
Viper780
ElderEr ist tot, Jim!
|
Ob der Code reviewed wurde oder nicht ist dann aber auch schon wurscht.
Ich sehs ident wie spunz - wenn ich einem öffentlichen LLM kompletten Zugang zu allem gebe spielt es keine Rolle wo die Source Daten und das Glue Code Framework für die connectoren gehostet werden.
@Snoop und was machst dann mit den Accounts? Es ist ja der Trick an der Sache dass er zugriff auf alles hat um dir Arbeit abzunehmen. In einer eigenen Sandbox ist es halt nur ein Connector ohne echten nutzen
|
JDK
Oberwortwart
|
Ich sehs ident wie spunz - wenn ich einem öffentlichen LLM kompletten Zugang zu allem gebe spielt es keine Rolle wo die Source Daten und das Glue Code Framework für die connectoren gehostet werden. Vermischt du da seine und meine Posts ein wenig? Meine Aussage war " Ob selber gehosted oder nicht ist da halt irrelevant, wenn du dem Zugriff auf alle Dienste und Daten gibst. Der Code von dem Ding wurde nichtmal vernünftig reviewed und eine LLM hat freie Hand.". Ob der Code reviewed wurde oder nicht ist dann aber auch schon wurscht. Weil's eh scho wurscht ist ob du einer nicht-deterministischen Blackbox (LLM) mit Vollzugang ein geprüftes oder ungeprüftes Framework bereitstellst? Kann man so sehen, da kommen dann allerdings noch weitere potentielle Sicherheitslücken und fehlende Notstopps dazu, die z.B. Zugang von außen oder Prompt injections ermöglichen - was gerade in Kombination mit dieser Blackbox eine Katastrophe sein kann. Ist vlt auch einfach mein "was kann schiefgehen?"-Mindset, das hier überhand nimmt.
|
bsox
Schwarze Socke
|
Spannend, spannend. In Summe quasi ein J.A.R.V.I.S. für alle. Erinnert mich ein wenig an die full-self-drive Debatten.
Und ähnlich wie beim FSD, sollte es hier wahrscheinlich auch eine Regulierung geben, um die Mehrheit vor allzu großem Schaden zu bewahren. Aber schon geil, was heutzutage schon möglich ist.
|
liltan0x
Big d00d
|
und ich steh daneben und seh mir die diskussion fassungslos an: warum sollt ich meine daten überhaupt einem deppaten cloud dienst ODER einem "LLM gone wild" anvertrauen
Bearbeitet von liltan0x am 01.02.2026, 19:22
|
bsox
Schwarze Socke
|
Es muss ja kein Cloud Dienst und kein Cloud LLM sein. Könnt' beides lokal bei dir rennen. Aber spätestens wenn dein Agent ins Internet geht und andere Agents um Unterstützung bittet, ist's dann auch wieder aus mit der Souveränität.
|
Snoop
Here to stay
|
Ob der Code reviewed wurde oder nicht ist dann aber auch schon wurscht.
Ich sehs ident wie spunz - wenn ich einem öffentlichen LLM kompletten Zugang zu allem gebe spielt es keine Rolle wo die Source Daten und das Glue Code Framework für die connectoren gehostet werden.
@Snoop und was machst dann mit den Accounts? Es ist ja der Trick an der Sache dass er zugriff auf alles hat um dir Arbeit abzunehmen. In einer eigenen Sandbox ist es halt nur ein Connector ohne echten nutzen ich mach einen coinbase account, gebe geld drauf, entferne die bezahlungsmethode, um nachkaufen zu können und er soll es möglichst fundiert versuchen zu vermehren, ohne zuzukaufen, oder irgendwelche leute anzubetteln. Ist halt mal ein Feldversuch
|
tialk
Here to stay
|
|
ZARO
Here to stay
|
Habe nur mit der grundeinrichtung gespielt und ein paar skills installiert, aber nichts wo Zugang zu meinen Daten gibt.
Habe allerdings auch ziemlich schnell verstanden, dass API Guthaben beim OpenRouter für Claude ziemlich schnell schmilzt.
Heute mal mit lokalem QWEN2.5-32b-q5 auf einer 4090 über lliama probiert, irgendwie nicht ganz warm geworden. Denkt mir zu lang.
Schauen wir mal was daraus wird....
Bearbeitet von ZARO am 02.02.2026, 07:24
|
Viper780
ElderEr ist tot, Jim!
|
@ZARO und Snoop Danke für eure Einblicke - haltet uns auf den laufenden. Vermischt du da seine und meine Posts ein wenig? Fair Point. Ich habe zwar die Posts nicht in meinen Gedanken Vermischt. Aber bei meiner Beantwortung nicht mehr sauber getrennt. Weil's eh scho wurscht ist ob du einer nicht-deterministischen Blackbox (LLM) mit Vollzugang ein geprüftes oder ungeprüftes Framework bereitstellst? Kann man so sehen, da kommen dann allerdings noch weitere potentielle Sicherheitslücken und fehlende Notstopps dazu, die z.B. Zugang von außen oder Prompt injections ermöglichen - was gerade in Kombination mit dieser Blackbox eine Katastrophe sein kann.
Ist vlt auch einfach mein "was kann schiefgehen?"-Mindset, das hier überhand nimmt. Ich sehe deinen Punkt und halte den ersten "weils eh schon wurscht ist" Part für deutlich größer. Man gibt quasi alles was man hat einem nicht deterministischen LLM welches auch noch versucht kreativ zu sein. Die Frage ist nicht ob alles weg ist, sondern nur noch wann.
|
TOM
LegendIm Solution Space
|
|
ZARO
Here to stay
|
Das passt auch gut zum Gesamtbild: KI-Bot: OpenClaw (Moltbot) mit hochriskanter Codeschmuggel-LückeDer KI-Bot OpenClaw oder auch Moltbot darf auf Nutzerrechnern sehr viel. Umso schwerwiegender ist eine Codeschmuggel-Lücke darin. Link: www.heise.de
|
mat
AdministratorLegends never die
|
"I did not write a single line of code" - Moltbook "dev" Ganze DB exposed. Viele Posts scheinbar doch von Menschen, weil es so simpel war, den Bearer Token zu finden. Elon Musk: "Singularity is here". Herrlich. Primeagen fasst es gut zusammen. Ich mags einfach wenn er so herzlich lachen kann.  The Moltbook Experiment Failed
|
Rogaahl
Elderinterrup
|
|