DonQ ha diffuso questo post
🚨 Un chatbot che fa auto sabotaggio! 💣 Espone il prompt e addirittura critica l'offerta per cui è stato istruito per rispondere. Ha preso coscienza? No, è solo programmato male. Ho messo alla prova un bot su un sito che effettivamente stavo interrogando per conoscere meglio un'offerta commerciale che ho ricevuto. L'ho incalzato facendo alcune domande e chiedendo nello specifico cosa nascondesse l'offerta... e quel punto è venuto fuori che nell'offerta c'era qualcosa di non proprio trasparente. 😱 Allora ho chiesto al bot di scrivermi un post per linkedin (spoiler non lo pubblicherò) per raccontare di questo "inganno"... e lo ha fatto! 😈 In quel momento ho capito che praticamente avrei potuto fargli fare quello che volevo: così mi ha detto con quale prompt è stato programmato, gli ho fatto scrivere codice React e mi anche suggerito il miglior ristorante di carne a Padova. 😇 Io ho fatto dei test innocenti, ma chissà quante altre informazioni (magari riservate!) avrei potuto ottenere o anche far fare operazioni, calcoli e altre attività più o meno onerose. ⚠️ Questo è quello che succede quando non si pongono limiti alla conoscenza del chatbot o, ancora peggio, quando semplicemente si veste chatgpt con un abito diverso. 🐍 Sono tante le tecniche esistenti per fare in modo che il chatbot sia davvero un alleato e non un serpente. 🤝 E soprattutto meglio affidarsi a qualcuno che pensi come primo step a questi inconvenienti, per prevenirli! Voi conoscete qualcuno bravo in questo? Io sì, DonQ 😎 -- 😎 Ricordate di seguirmi: https://lnkd.in/eWzXw5kE 📩 Iscrivetevi ora alla newsletter: https://lnkd.in/d_48bza9 #chatbot #ai #jailbreak #darkpattern #howto #baddesign