ChatGPT: Code mit betrügerischer API kostet Programmierer 2500 US-Dollar
Ein Kryptowährungs-Interessierter wollte mit ChatGPT einen "Bump Bot" programmieren. Die KI hat eine betrügerische API in den Code eingebaut.
@heisec Ist das jetzt wirklich "Data poisoning"? Oder einfach "Trained on bad data"?
Ich habe mich auch gefragt bezüglich der Stärke der Modelle beim Schach spielen: wenn die Modelle viele schlechte Spiele als Basis haben, dann spielen sie schlecht Schach. Also hinterfragen die Modelle offenbar nicht, was sie als Daten haben.
Werden die "Agent KIs" das besser hinkriegen? Und es schaffen, ihre Daten zu sortieren, so dass nur die guten Daten gebraucht werden?