Comretix Blog

Wir bieten aktuelle Informationen über uns und aus der IT Welt.

ChatGPT: Code mit betrügerischer API kostet Programmierer 2500 US-Dollar

Ein Kryptowährung-Interessierter hat auf X berichtet, dass sein Programmierversuch mit ChatGPT ihn um 2500 US-Dollar gebracht hat. Er wollte mit der künstlichen Intelligenz einen sogenannten Bump Bot programmieren, um seine Token auf einer Kryptowährungshandelsplattform auf Discord-Servern zu bewerben.

Anzeige

Womit er nicht gerechnet habe sei, dass ChatGPT ihm eine betrügerische Solana-API-Webseite vorschlagen würde. Er erklärt, dass er von ChatGPT vorgeschlagenen Code übernommen habe, der den privaten Key über die API überträgt. Außerdem habe er seine Haupt-Solana-Wallet benutzt. "Wenn du in Eile bist und so viele Dinge auf einmal machst, ist es leicht, Fehler zu machen", resümiert der Programmersteller mit dem Handle "r_ocky.eth".

r_ocky.eth ist offenbar nicht weiterreichend mit Sicherheit oder Programmierung vertraut: Private Schlüssel gibt man nicht heraus, sondern nutzt sie, um damit Nachrichten zu verschlüsseln. Softwareentwicklung sollte zudem nie mit einem "Produktivkonto" erfolgen, sondern mit einem gesonderten Test-Konto. Der Codeschnipsel, von dem er einen Screenshot zeigt, nennt sogar offen, was er anstellt: "Payload for POST request" ist als Kommentar zu lesen, worauf als Erstes bereits der private Schlüssel folgt, den Programmierer eintragen sollen.

Der Betrüger hinter der API war schnell, berichtet der Betrogene, kurz nach der Nutzung der API habe er alle seine Krypto-Assets aus der Wallet an seine eigene übertragen. Das erfolgte bereits innerhalb von 30 Minuten, nachdem er eine Anfrage übertragen hatte. Schließlich habe er das Gefühl gehabt, etwas falsch gemacht zu haben, aber er habe sein Vertrauen in OpenAI verloren. Den Chatverlauf mit dem betrügerischen Programmcode habe er an OpenAI gemeldet. Über das betrügerische Repository habe er Github informiert, woraufhin es rasch entfernt wurde.

Berichte darüber, dass OpenAIs ChatGPT zur Malware-Entwicklung genutzt wird, sind schon häufiger zu lesen gewesen. Dass ChatGPT jedoch etwa aufgrund "Data Poisoning" in den Trainingsdaten schädlichen Code erzeugen kann, ist offenbar noch keine weitreichende Erkenntnis. Das Beispiel belegt jedoch einmal mehr, dass die Ergebnisse von KI nicht unhinterfragt blind vertrauenswürdig sind, sondern stets noch einmal überprüft werden sollten.

Anzeige

Jetzt heise Security Pro entdecken

Jetzt heise Security Pro entdecken

(Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein.)

(Ursprünglich geschrieben von Dirk Knop)
×
Stay Informed

When you subscribe to the blog, we will send you an e-mail when there are new updates on the site so you wouldn't miss them.

Prochinesische Desinformation: Google entfernt 100...
Social Media erst ab 16: Elon Musk mischt sich in ...
 

Kommentare

Derzeit gibt es keine Kommentare. Schreibe den ersten Kommentar!
Bereits registriert? Hier einloggen
Samstag, 01. November 2025

Die Comretix GmbH ist ein IT Systemhaus aus Tuttlingen. Seit über 30 Jahren betreuen wir unsere Kunden in Baden-Württemberg, der Schweiz und im gesamten Bundesgebiet mit Leidenschaft, Fairness und Loyalität. Wir bauen auf eine zuverlässige Partnerschaft mit unseren Lieferanten und Kunden. Unseren Mitarbeitern stehen wir auf Augenhöhe gegenüber.

Comretix GmbH Logo