一则关于Robinhood在Uniswap股票代币化项目"跑路"的传言近日在X平台发酵,传言称该项目能抹除持有者地址余额。经ChatGPT核查,这种技术操作在区块链架构下极难实现,但调查过程中AI对区块浏览器的"模拟操作"能力却暴露出更深远的安全隐患。
事件起源于网友发现ChatGPT能通过拼接URL直接访问Arbiscan.io的地址详情页,这种绕过前端界面直接解析API的行为,与半年前ChatGPT明确拒绝执行区块浏览器查询的操作形成鲜明对比。虽然最终证实这只是AI利用技术取巧,但云端大模型可能获得的UI操作权限已引发行业警觉。
今年3月,Anthropic公司为Claude 3.5 Sonnet推出的"Computer use"功能已能模拟鼠标点击、键盘输入等完整桌面操作。华为"小艺"、荣耀手机AI等本地模型也相继实现订票、外卖等APP操作。这些进展将AI安全边界问题推向台前:当智能体可以像人类一样操作系统时,如何防范其越权访问敏感数据?
安全专家指出关键差异在于模型运行位置。本地模型如小艺受终端权限管理系统约束,相当于"现场助手";而云端大模型一旦获得UI操作权限,则等同于"远程控制",存在数据外泄风险。部分加密货币从业者已采取物理隔离措施,专设设备运行AI程序。
区块链行业对此尤为敏感。Arbiscan.io这类工具通常包含钱包地址、交易记录等敏感信息,若AI能自由操作系统,理论上存在窃取私钥的可能。尽管当前ChatGPT仍遵守安全规范,但技术演进速度已超出许多从业者的预期防护方案。
本次事件揭示出AI安全的新维度:模型智能化程度提升时,运行环境的控制比算法本身更决定安全边界。在金融、医疗等敏感领域,企业或需重新评估云端大模型的应用范围,而普通用户也应当关注手机权限管理中的AI访问设置。行业共识正在形成——没有绝对安全的智能,只有相对可控的权限。