78 研究智能操作系统(2/2)

投票推荐 加入书签 留言反馈

   人工智能的数据来源,比全智能更广,它不但可以搜集各类公众信息和隐私信息,还必须能通过自身神经传感装置,采集信息。

    然后将采集到的信息,混合搜集到的信息,做出更加准确的反馈。

    或许因为科幻电影的影响,人们的印象中,人工智能是不能思考的,它只会按照既定程序工作。而林风认为,造成这一现象的主要原因是,人工智能没有人类的五官感知等等。

    如果人工智能拥有五官感知,拥有了大数据分析,拥有了成千上万个人类的记忆体,它们也能学会思考。

    当然,人工智能现阶段是不可能的,先不说五官神经传感器的研发,单单海量的数据处理,以现有计算机的运算速度,就根本无法完成。

    所以,林风研究对象,是全智能系统。

    可是,想要研发出全智能,也不是一件简单的事情,处理器,超大数据储存盘,还有隐私数据来源。

    这三样东西,是最为棘手的。

    处理器自然不用多说,林风查看了《IT信息》杂志,杂志上称,去年全球信息总储量为20.5ZB。

    ZB,是大数据储存计量单位,数据存储单位从小到大分别是Byte/KB/MB/GB/TB/PB/EB/ZB/YB/DB/NB。

    每个单位进率是1024(2的10次方)。

    1ZB约等于1.2乘以10的22次方个Byte。约等于10亿TB。

    或许这样的数字没有直观概念,那么举个例子。

    如果将1ZB存入1TB硬盘中,1ZB就需要十亿个硬盘,1TB硬盘标准重量是670克,十亿个硬盘重量则是6.7亿千克,合计六百七十万吨。

    目前运载了为56万吨的诺克奈维斯号货轮,1ZB的硬盘,需要12艘诺克奈维斯货轮才能装下。

    而20.5ZB,则需要246艘诺克纳维斯货轮才能装完。

    想要处理这么大数量的数据,对处理器的要求更大,普通的超级计算机运算速度是每秒一千万次,想要用普通超级计算机来处理这些数据,至少需要十万亿秒,相当于1.15亿天。

    所以使用普通的超级计算机不可能,林峰想到了南海分部的银河二号超级计算机。

    银河二号超级计算机的运算速度是2.1千万亿每秒,如果处理这些信息,可以将时间缩短到半天,虽然这个时间依然显得很漫长,但对于普通超级计算机,已经是跨越式进步了。

    储存盘的问题,当然不可能选用普通盘,林风只能考虑使用云储存的方式储存,利用全世界的电脑帮着储存资料,才能将这么庞大数据资料存住。

    最后一个棘手的问题,是隐私信息的挖掘工作。

    想要各个单位,各个组织免费提供信息数据,那是不可能的,比如环太平洋防卫组织的秘密资料,能免费提供给林风?

    完全不可能。

    所以林风预想中,只能通过一些不太友好的手段,拿到这些资料。

    比如化身黑客,网络入侵.....

    可是以林风现在的计算机水平,入侵大型单位的网络都会失败,更别提入侵那些军事基地网络。

    鉴于此,林风现在主要要做的事情,就是学习黑客知识,将自己的计算机技术,提高到世界顶级黑客的水准。

    或者,超越世界顶级黑客的水准。

章节目录