Scoperte nuove vulnerabilità di ChatGPT che portano a leak di dati
好的,我需要帮用户总结一篇文章,控制在100字以内。首先,看看文章内容。文章讲的是Tenable Research发现ChatGPT有七个漏洞,包括间接提示注入、零日漏洞、一键注入等,这些漏洞可以让攻击者窃取用户数据。OpenAI已经修复了部分问题,但整体风险依然存在。 接下来,我需要提取关键点:研究人员、发现的漏洞数量、漏洞类型、攻击方式、修复情况。然后把这些信息用简洁的语言表达出来,确保不超过100字。 可能的结构是:研究人员发现七个漏洞,允许攻击者窃取数据,OpenAI修复部分问题,但风险仍存。 现在组织语言:“Tenable Research发现ChatGPT存在七个漏洞,允许攻击者通过间接提示注入等技术窃取用户数据。OpenAI已修复部分问题,但整体风险仍需关注。” 检查字数:这句话大约45个字左右,符合要求。确保没有使用“这篇文章”或“内容总结”这样的开头。 确认所有关键点都涵盖:研究人员、漏洞数量、攻击方式、修复情况。看起来没问题。 最后检查语法和流畅度,确保表达清晰。 </think> Tenable Research发现ChatGPT存在七个漏洞,允许攻击者通过间接提示注入等技术窃取用户数据。OpenAI已修复部分问题,但整体风险仍需关注。 2025-11-5 18:45:32 Author: www.securityinfo.it(查看原文) 阅读量:7 收藏

Nov 05, 2025 Approfondimenti, In evidenza, Minacce, Minacce, News, RSS, Vulnerabilità, Vulnerabilità


I ricercatori di Tenable Research hanno scoperto nuove vulnerabilità in ChatGPT che consentono a un attaccante di esfiltrare dati e informazioni personali dalle chat degli utenti. I bug permetterebbero agli attaccanti di provocare leak di dati senza che le vittime se ne accorgano, tramite prompt injection indiretta.

vulnerabilità ChatGPT

In tutto, i ricercatori hanno trovato sette tra vulnerabilità e tecniche di attacco che sfruttano le debolezze di ChatGPT:

  • una vulnerabilità di prompt injection indiretta tramite Browsing Context: gli attaccanti iniettano comandi malevoli in sezioni di blog e articoli, così che quando l’utente richiede un riassunto o una ricerca su queste fonti, quelli vengono eseguiti;
  • una vulnerabilità di prompt injection indiretta zero-day in Search Context: gli attaccanti inseriscono un prompt malevolo nascosto in un sito web che viene servito solo all’agente di ricerca dell’LLM e non all’utente. Il comando malevolo viene eseguito non appena il sito viene indicizzato dalla ricerca del chatbot;
  • una 1-click prompt injection: in questo caso il prompt malevolo viene inserito in un link creato ad hoc del tipo “chatgpt[.]com/?q={Prompt}”, in modo che il chatbot elabori il contenuto del parametro “q” come una normale richiesta utente;
  • un Safety Mechanism Bypass, ovvero un tecnica che elude la validazione di sicurezza url_safe che il chatbot usa per capire se un URL è sicuro. Il bug sfrutta il fatto che domini noti come bing.com sono in una whitelist e superano sempre il controllo di sicurezza. I risultati di ricerca di Bing sono serviti tramite link di tracciamento reindirizzanti statici (bing.com/ck/a…). L’attaccante indicizza i siti web di prova su Bing per ottenere questi link di tracciamento statici, considerati “sicuri” dall’LLM, permettendo così al contenuto finale del sito di essere renderizzato, mascherando gli URL malevoli;
  • una Conversation Injection Technique, ovvero una tecnica che usa una prompt injection di primo livello inserendo i prompt malevoli nei siti web combinata a una conversation injection che prevede la generazione di un output manipolato. I comandi malevoli non sono quindi solo nei siti web, ma anche nell’output; questo diventa parte della conversazione con l’utente e del contesto e viene usato per rispondere a richieste future;
  • una tecnica per nascondere il contenuto malevolo che sfrutta un bug del modo in cui ChatGPT renderinzza il markdown: renderizzando i blocchi di codice (con “`), tutte le parole della prima riga (tranne la prima parola) non vengono mostrate nella risposta;
  • infine, una tecnica di memory injection, variazione della conversation injection che mira a rendere l’attacco persistente: l’attaccante usa SearchGPT per iniettare un comando nel contesto, ma il prompt è progettato per manipolare la memoria del chatbot, causando leak a prescindere dalla sessione e dalla chat.

L’iniezione di prompt è un problema noto legato al funzionamento dei modelli di linguaggio grande (LLM) e, purtroppo, probabilmente non verrà risolto in modo sistematico nel prossimo futuro. I fornitori di IA dovrebbero assicurarsi che tutti i loro meccanismi di sicurezza (come url_safe) funzionino correttamente per limitare i potenziali danni causati dall’iniezione di prompt” hanno affermato i ricercatori di Tenable Research.

Il team della compagnia ha pubblicato una serie di PoC effettuate su ChatGPT 4o, ma la maggior parte delle vulnerabilità è presente anche in ChatGPT 5. I ricercatori riportano che OpenAI ha rilasciato dei fix per la prompt injection tramite parametro nell’URL, per la vulnerabilità che consente la manipolazione della memoria del chatbot e per il bypass di url_safe.



Altro in questa categoria


文章来源: https://www.securityinfo.it/2025/11/05/scoperte-nuove-vulnerabilita-di-chatgpt-che-portano-a-leak-di-dati/
如有侵权请联系:admin#unsafe.sh