Sora 2震撼发布:人工智能的未来已至,欣喜与忧虑并存
Sora 2让我真切感受到,人工智能的未来已经到来——它既令人惊叹,又令人不安。 OpenAI推出的Sora 2视频生成应用,让我第一次真正体会到AI逼近现实的震撼。它有趣、荒诞、充满创意,我甚至乐此不疲地用自己和朋友的照片生成各种搞笑视频。但细想之下,这背后潜藏的危险同样清晰:这是我第一次看到AI能如此逼真地还原真实人物,以至于你很难分辨视频中的人是真是假。 这种技术一旦被恶意利用,后果不堪设想。从诈骗、人身羞辱到勒索、政治操纵,甚至制造大规模虚假信息,都可能成为现实。更令人担忧的是,如今普通人也能轻松生成高仿真视频,而我们尚未建立起应对这些风险的规则与防护机制。 过去几年,我用过不少生成式AI工具,如ChatGPT,大多用于查资料或办公,虽有用但谈不上震撼。而Sora 2不同——它真正让我“眼前一亮”。尽管它并非目前最顶尖的AI视频作品,也不是首个社交化AI视频平台(Meta的Vibes就是类似产品),但Sora 2的真正突破在于:它让我看到了自己。 Vibes之所以乏味,是因为它只能被动观看随机生成的“屏幕保护程序式”画面。而Sora 2允许你上传自己的照片,输入提示词,就能生成包含你形象的动态视频——比如“让我被逮捕”“我抢劫了银行”——这种参与感和控制力,让AI从工具变成了表达自我的媒介。 但这也带来了巨大隐患。我从未见过如此高质量的AI生成“我”的视频,而这种能力正被无限放大。更讽刺的是,像Jake Paul这样的公众人物,早已敏锐地捕捉到这一趋势。他不仅迅速入驻Sora 2,还以一贯玩世不恭的方式“推广”自己,甚至在视频中“说出”对Business Insider的“赞赏”——但那根本不是他说的。 这正是问题所在:我们正进入一个真假难辨的新世界。技术已经跑在了社会规则和伦理框架之前。Sora 2不只是一个新应用,它是一面镜子,照出我们对AI的渴望,也照出我们对失控的恐惧。欢迎来到未来——它比我们想象的来得更快,也更复杂。