ElevenLabs CEO预言:语音将成为AI交互新风口,引爆科技界热议!

电脑作者 / 花爷 / 2026-04-18 04:47
"
    【编者按】在人工智能浪潮席卷全球的今天,交互方式的变革正悄然重塑我们与科技的对话。当屏幕逐渐退居二线,声音悄然站

  ElevenLabs CEO预言:语音将成为AI交互新风口,引爆科技界热议!

  【编者按】在人工智能浪潮席卷全球的今天,交互方式的变革正悄然重塑我们与科技的对话。当屏幕逐渐退居二线,声音悄然站上舞台中央——这不仅是技术的演进,更是一场关乎人类感知世界的哲学转向。 ElevenLabs 等先锋企业以情感化语音模型破局,联手大型语言模型的推理能力,让机器不再冰冷复读,而是成为懂得语气、理解情绪的“数字伴侣”。从手机回归口袋的畅想,到耳机、眼镜乃至汽车的无缝语音交互,我们正迈向一个“动口不动手”的智能新时代。然而,当声音成为24小时在线的数据入口,隐私的边界、监控的阴影也随之浮现。这场声音革命将如何平衡便利与安全?或许,答案就藏在下一句“你好,AI”之中。

  ElevenLabs联合创始人兼首席执行官马蒂·斯塔尼斯泽夫斯基指出,语音正成为AI的下一个核心交互界面——随着模型突破文字与屏幕的局限,人们将越来越多地通过语音与机器互动。

  在多哈网络峰会上,斯塔尼斯泽夫斯基向TechCrunch透露,像ElevenLabs开发的这类语音模型已实现重大跨越:它们不再仅仅模仿人类语音(包括情感与语调),更能与大型语言模型的推理能力协同工作。他强调,这正在彻底改变人机交互的格局。

  他展望道:“未来几年,希望所有手机都能放回口袋,让我们沉浸于真实的周遭世界——而语音将成为操控技术的核心媒介。”

  这一愿景驱动着ElevenLabs本周以110亿美元估值完成5亿美元融资,也日益成为AI行业的共识。OpenAI和谷歌已将语音定为下一代模型的核心,苹果则通过收购Q.ai等动作,悄然布局全天候语音协同技术。随着AI渗透进可穿戴设备、汽车等新硬件,操控方式正从“点击屏幕”转向“开口说话”,语音注定成为AI下一阶段的关键战场。

  Iconiq Capital普通合伙人塞斯·皮埃尔庞特在网络峰会现场呼应了这一观点。他认为,屏幕虽将继续主导游戏和娱乐领域,但键盘等传统输入方式已开始显得“过时”。

  皮埃尔庞特进一步指出,随着AI系统自主性增强,交互模式本身也将进化:模型将具备防护机制、集成能力与情境理解力,无需用户详尽指令即可精准响应。

  斯塔尼斯泽夫斯基将这种自主性转变视为当前最重要的变革之一。他表示,未来的语音系统将不再需要用户事无巨细地说明指令,而是依靠长期积累的持久记忆与情境认知,让交互更自然、更省力。

  他补充说,这种演进将直接影响语音模型的部署方式。尽管高质量音频模型目前主要依托云端,但ElevenLabs正推进云端与设备端处理的混合模式——旨在支持耳机等新型可穿戴硬件,让语音成为随时相伴的智能助手,而非需要手动启用的功能。

  ElevenLabs已与meta合作,将其语音技术应用于Instagram及虚拟现实平台Horizon Worlds。斯塔尼斯泽夫斯基表示,随着语音交互向智能眼镜等新形态扩展,他也对与meta合作开发雷朋智能眼镜持开放态度。

  然而,当语音日益深度嵌入日常硬件、成为全天候存在时,隐私监控与个人数据存储等严峻问题也随之浮现——随着语音系统无限贴近用户生活,谷歌等企业已被指控滥用此类数据。这场声音革命在打开便利之门的同时,也推开了通往伦理深渊的另一扇门。

分享到
声明:本文为用户投稿或编译自英文资料,不代表本站观点和立场,转载时请务必注明文章作者和来源,不尊重原创的行为将受到本站的追责;转载稿件或作者投稿可能会经编辑修改或者补充,有异议可投诉至本站。

热文导读