醋溜小白菜 作品

第673章 脑控升级测试,国家发现了什么?


  刘森直接把他的智能眼镜的原有的固定脑波操作模式关闭。

  然后开始直接通过多应用协同,连接上了刚刚完成的脑波数据模型。

  然后开始在眼前的虚拟屏幕上进行了相关操作。

  屏幕上的鼠标在qs版广播体操的图标上,他想要打开屏幕上行另一边蓝星畅聊app。

  只见那个鼠标明没有移动轨迹,而是突然就出现在了蓝星畅聊上,然后瞬间打开了蓝星畅聊app。

  “果然出现了非常明显的变化,原来如果想要打开蓝星畅聊软件,原来在qs广播体操上面的鼠标会慢慢的移动到另一边的蓝星畅聊上面。”

  “现在的操作完全更加的快捷,而且精准。”

  “原来虽然也是脑波操控,但是在底层操控逻辑上,完全不一样。”

  “原来的操控是通过意识中给出移动的念头,然后鼠标进行对应移动,这一切完全原先设定好的程序。这中间有一个认为转化匹配的过程,这一切操控必须是原来已经提前设置好的。”

  “一旦你的命令,超出原来设置的鼠标移动动作以外,那么便不会出现对应的响应。”

  像是一开始,就给一段固定的脑波进行匹配,x=向左移动1厘米。

  我一旦发出x脑波,电脑后台就会自动识别出,x=左移动1厘米,然后鼠标开始向左移动1厘米。

  一旦我发出另一个指令,想要向左上方37角度位置,移动5厘米,而这个脑波y,却无法进行相关识别。

  只有我录入相关的37%角计算方法,计算出这个位置,然后才会进行移动。

  其中存在无数的计算,和提前预设。

  比如更加复杂的我想要桌面上的鼠标箭头,进行向左前空翻360°左旋体两周半,然后在进行俯卧撑10个。

  这个命令出来,估计接收指令的cpu都能算烧掉,都弄不明白这个玩意。

  毕竟没有设计过相关指令。

  但是现在的最新脑波控制,却实进行100%的匹配精确控制。

  我们发出这个命令的时候,一边脑海中都会出现这么一个想象,那么那个鼠标就会立刻按照你得脑海想象,明白这个指令。

  于是立刻进行动作。

  这就是两个模式底层逻辑的不一样。

  并且因为之前的模式,所有动作都必须要预设,因此潜力较低,很多工作无法执行。

  再加上那个模式有需要进行多重计算转化指令,因此相对于这新的操作模式就存在延迟。

  越是复杂的动作延迟性越大。

  很多时候,这相差0.1秒,都能决定了很多事情的成败。

  比如两人站立进行持枪决斗,一个人发出指令抬枪,瞄准,扣动扳机射击。

  而另一个人完全在抬枪的时候就能调整枪口瞄准,等枪抬起就是瞬间射击。

  这其中的差别,可能是就是生命。

  就是你把指令模拟的同另一个一模一样,那么计算反应,还是需要一个时间差,就是决定生死的那瞬间。

  刘森有些高兴,于是立刻进行其他的测试。