资讯
新智元报道 编辑:元宇【新智元导读】我们需要「AI母亲」,而非「AI助手」!在Ai4 ...
人工智能领域的两位巨擘——李飞飞与 Geoffrey Hinton,在拉斯维加斯举行的 Ai4 2025 上给出了几乎完全相反的答案。 Hinton 则认为超级智能可能在未来 5 到 20 年内出现,届时人类将无法控制它们。他认为,与其争取保持掌控权 ...
7 小时
十轮网科技资讯 on MSN杨立昆认为最关键AI防护措施:服从人类与同理心
Meta首席AI科学家杨立昆(Yann LeCun)最近CNN专访提出两项关键AI防护措施,确保将来不会对人类造成伤害。AI系统应该有“服从人类”和“同理心”两个基本指导原则,AI之父Geoffrey ...
Yann LeCun的AI故事,纪录片回顾了这位深度学习先驱的四十年历程。从索邦大学的孤独探索,到贝尔实验室发明卷积神经网络、推动支票识别商用,再与Hinton、Bengio共创深度学习革命,他始终坚信机器应学会学习。
9 小时
十轮网科技资讯 on MSNMeta首席AI科学家扬·勒昆这两大“护栏”能护我们免受AI之害!
你得教别人怎么对待你。Meta首席AI科学家扬·勒昆(Yann LeCun)认为,这个道理同样适用于AI。勒昆周四表示,可以制定两项AI指令,以保护人类免受未来伤害,即“服从人类”和“共情能力”。他是在回应周四CNN对有“AI教父”之称的杰弗里·辛顿 ...
Igor Babuschkin,曾经在DeepMind和OpenAI之间反复横跳,2023年作为联合创始人之一加入xAI。在这里,他扮演了至关重要的角色,带领团队完成了Grok从初代到第四代的迭代,还主导了xAI在孟菲斯的超算集群的构建。
作为法国科学院院士和图灵奖得主,杨立昆获得过包括法国荣誉军团骑士勋章在内的多项殊荣。他提出的“目标驱动架构”为AI系统设定了明确目标和安全防护机制,以确保系统行为可控。他反驳了“智能必然导致支配欲”的观点,强调AI安全是工程问题,可通过合理设计解决。
一些您可能无法访问的结果已被隐去。
显示无法访问的结果