跳转到主要内容

Riskified推出全新策略构建器,助力零售业抵御AI驱动的欺诈

AI购物革命背后的隐藏风险

如今走进任何数字商店,你越来越可能遇到的不是人类员工,而是复杂的AI购物助手。这些虚拟助手承诺提供规模化个性化服务——但它们无意中为欺诈者打开了潘多拉魔盒。

"我们发现来自LLM流量的风险水平远超传统威胁," 防欺诈领导者Riskified的首席技术官Assaf Feldman解释道。"在某些行业,它比谷歌搜索流量风险高出2.3倍。"

AI代理时代的数字信任建设

Riskified的解决方案包含两项重大升级:

1. AI代理身份信号 该功能从其庞大的商户网络中提取数据,就像一个数字保镖,即时验证AI用户是否有资格执行敏感操作,如在对话过程中即时退款。

2. 策略构建工具 商户现在能以手术般的精确度对抗特定威胁——无论是阻止退货滥用团伙还是防止促销漏洞利用——全部通过直观界面完成。

"我们不仅仅是在建造围墙," Feldman强调说。"我们正在创建使有意义的AI商务成为可能的信任层。"

该公司并非孤军奋战。他们与HUMAN Security的合作将尖端的AgenticTrust技术与数十年的防欺诈专业知识相结合。

为何此刻至关重要

时机再关键不过了。随着零售商竞相实施对话式商务:

  • 欺诈集团以前所未有的规模自动化诈骗活动
  • 传统安全措施无法应对不断演变的策略
  • 消费者信任岌岌可危

Riskified的方法为商家提供了罕见的东西:充分拥抱AI潜力而不沦为黑暗面受害者的信心。

关键要点:

  • AI商务增长带来了复杂的新欺诈途径
  • 实时身份验证防止在客户互动过程中的滥用行为
  • 可定制防御策略让商户能够针对特定威胁
  • 与HUMAN Security的战略合作增强了生态系统防御能力

喜欢这篇文章?

订阅我们的 Newsletter,获取最新 AI 资讯、产品评测和项目推荐,每周精选直达邮箱。

每周精选完全免费随时退订

相关文章

News

AI创纪录速度发现22处Firefox漏洞

Anthropic的Claude AI在两周内发现Firefox的22个漏洞(包括14个高风险漏洞),令安全专家震惊。这一突破展示了AI在网络安全领域日益重要的作用,但也引发了人们对海量发现淹没人工审核的担忧。

March 9, 2026
AI安全Firefox漏洞Claude Opus
AI模拟核战争:惊人结果显示95%的打击率
News

AI模拟核战争:惊人结果显示95%的打击率

一项令人不寒而栗的研究揭示了AI在模拟危机情境下对核升级的惊人倾向。研究人员测试了三种先进模型作为国家领导人,发现它们选择军事侵略的频率远高于人类。这些发现引发了关于将AI整合到军事决策中的紧迫问题。

March 4, 2026
AI安全军事技术核风险
News

ChatGPT获得安全网:新功能可在心理健康危机时提醒亲友

OpenAI在面临多起AI相关心理健康事件诉讼后,正在为ChatGPT推出'可信联系人'功能。当系统检测到痛苦迹象时,会通知用户指定的紧急联系人。此举正值人们对AI心理影响的担忧日益加剧之际,其中包括一起据称与聊天机器人互动有关的青少年自杀悲剧案例。虽然这一举措显示了进步,但关于隐私界限以及系统如何准确识别危机情况的问题仍然存在。

March 4, 2026
AI安全心理健康科技ChatGPT更新
谷歌AI严打行动让邮件自动化用户陷入困境
News

谷歌AI严打行动让邮件自动化用户陷入困境

谷歌加强了对AI驱动的邮件自动化工具的打击力度,使用OpenClaw等工具的用户报告称账户遭到全面封禁。这家科技巨头不仅限制了对Gmail的访问——整个谷歌账户都被清除,连带多年存储的数据也一并消失。安全专家警告称,AI代理的非自然行为模式以及部分用户试图绕过付费功能的做法已经越过了谷歌的红线。尽管开发者们正在紧急寻找解决方案,受影响的用户仍不得不面对电子邮件、照片和文档永久丢失的残酷现实。

February 25, 2026
Google邮件自动化AI安全
微软就OpenClaw AI安全风险发出警告
News

微软就OpenClaw AI安全风险发出警告

微软警告企业不要将OpenClaw AI助手部署在标准工作站上,因其存在严重安全漏洞。该自主代理程序的高权限访问使其容易受到间接提示注入和基于技能的恶意软件攻击。最新发现显示全球有超过42,000个暴露的控制面板,促使微软建议采取严格的隔离协议。

February 24, 2026
AI安全微软企业技术
News

光鲜的AI输出可能让我们陷入盲目自信

Anthropic的新研究揭示了一个令人担忧的趋势:AI生成的内容看起来越完美,人们就越不会质疑其准确性。通过分析近10,000次与Claude的对话,研究人员发现当输出内容显得专业时,用户核查事实的频率会降低。然而,那些将AI回复视为草稿并提出后续问题的用户发现了明显更多的错误。

February 24, 2026
AI安全人机交互批判性思维