廖不十 作品

0792 震惊硅谷

    主持人跟着笑笑,直接问,“mr.霍,中国的人工智能企业与openAi的差距有多大?”

    上来就抛出王炸问题。

    

    霍利淡淡一笑,“国内做的最好的Ai大模型,能够匹配Chatgpt3.5。

    差距很明显,如果按照时间算,落后两年左右。

    不可否认,这是一段比较长的距离,我们在追赶的同时,openAi也在快速更迭,甚至是以一种我们难以预测的速度。

    奥特曼是我很喜欢的一位科技Ceo。”

    奥特曼坐在台下抬手捂胸,以示礼貌。

    主持人:“有追上的可能性吗?”

    霍利微笑道:“当然,因为今天我坐在了这里。”

    偏头看向马斯克,“为什么马斯克邀请的不是别人?”

    马斯克笑着鼓掌,“霍创造了很多商业奇迹,我同样期待他创造科技奇迹。

    也许他会超过我们。”

    有点捧场的味道。

    现场掌声热烈。

    青年人的自信还是很有魅力的。

    特别是用这种幽默风趣的方式表现出来。

    主持人:“我也很期待那一天。

    霍,人工智能能够击败人类吗?”

    霍利:“我不知道你们如何定义失败?

    是指智力超过人类,还是指统治人类,甚至是消灭人类?

    如果是比较智力,我想人工智能已经在多个领域击败了人类。

    他就像多个高智商的个体融合在了一起,世界上很难找出和他一样聪明的人类。

    如果击败是指统治和消灭人类,这个话题需要从多个纬度去思考。”

    主持人:“马斯克,你同意霍的观点吗?”

    “当然。”,马斯克点头,“Ai最后会替代人类,人类将会以意识生存在这个世界上。

    人的躯体将会被Ai消灭。

    Ai的复杂性,已经很难用人类的大脑去思考了,也许在系统开发和算法研究上出现一个微小的错误,就会带来全球性的灾难。

    人类应对风险的能力是有限的。”

    霍利:“我并不希望这样的事情发生。”

    主持人看向霍利,今天对话上的第一次观点碰撞诞生了。

    主持人:“mr.霍不赞同马斯克的观点?”

    霍利:“任何一个新事物的诞生,都会给人类带来恐慌,但是我们不能忽视一个重要的现象,人类的适应能力是极强的。

    马斯克预估了Ai最坏的结果,但是他忽略了人的主观能动性。

    核武器诞生的时候,也给全人类带来过恐慌。

    大国之间的核竞赛诞生了很多末日的言论。

    但是最后国际社会创建了一个国际原子能结构(iAeA)监管核武器,让核武器只是停留在军事威胁上。

    Ai也是如此,从它诞生开始,我们必须认清它带来的负面影响,包括人类的毁灭。

    我相信国际社会同样能够做好对Ai的监管。”

    马斯克摇头道:“no!霍,人类无法监管Ai,它的成长速度和变化超过了人类的预知能力。”

    霍利:“人类不可以,但是Ai可能。”

    马斯克愣神看着霍利。

    现场也突然安静。

    主持人不确定道:“霍,你的意思是用Ai监管Ai?”

    霍利点头。

    所有人都露出震惊的表情。

    这是一个非常新的话题。