可以作为一台性能强悍的外置大脑,为白牧辰提供所需的全部专业知识、技术资料、以及海量的运算能力支持。
也没其它人可用,两个不是人家伙被迫组成科研二人组。
白牧辰一边恶补相关的生物学和基因工程知识,一边指导启明星ai根据她的想法生成大量的实验方案,并进行大规模的测试与试错。
就这样磕磕绊绊地折腾了整整一年多的时间,才总算是勉强取得了一点微不足道的技术性调整成果。
成功地将原本用于“成家畜培育”的某些技术,微调并应用到了人类克隆体的培育流程之中。
至于为什么启明星ai明明拥有如此强大的能力,却依旧无法进行自主的创新性科学研究。
其根本原因在于启明星的核心本质只是一个基于海量数据训练出来的高性能大语言模型。
或者说,摸着大世界模型边的多模态大语言模型。
而这类人工智能的系统架构本身,就存在着一个目前尚无法被彻底根除的固有缺陷——幻觉。
什么是大语言模型的幻觉?
这个概念如果简单粗暴地进行理解,其实就和它的字面意思差不多。
但先需要澄清的一点是,大语言模型所产生的“幻觉”与通常理解中的程序错误或系统bug并非同一个概念。
“幻觉”本身在很多情况下甚至可以被视为是模型在特定条件下所输出的“正确事实”。
这也是为什么大模型往往对自身的“幻觉”现象束手无策的根本原因。
错误,是一个系统内部固有的、可以被明确认知和定位的问题。
既然能够被认知,自然也就可以通过相应的技术手段理解、排除、或者修复。
但“幻觉”则不同,它更像是一个系统在与外部环境交互时所表现出来的一种外在属性。
它并不存在于系统内部的逻辑层面,因此也无法仅仅依靠系统自身的视角被有效地认知和修正。
因为“幻觉”这个概念本身,就是站在一个外部观察者的立场上,对系统输出结果进行评判和定义之后才产生的。
必须引入一个独立的外部参照系,才能准确地界定和识别一个系统的“幻觉”现象。
试想一下,如果我们将人类文明目前已知的一切科学知识、物理规律、社会历史都视为一个庞大而复杂的系统。
那么作为身处于这个系统内部的观察者——人类。
自然而然地会认为这个系统就是客观存在的真实世界,是没有任何逻辑缺陷和内在矛盾的。
在这个阶段,“幻觉”的概念是不存在的,或者说,是无法被系统自身所感知的。
因为从内部视角来看,这个系统的一切都是自洽的、符合逻辑的、没有任何错误的,是理所当然的客观事实。
只有当我们引入一个越了这个系统,更宏大的外部参照系时,这个原本看起来完美无缺的内部系统才有可能在外部观察者的眼中被定义为一种“幻觉”。
喜欢群星:舰与灵能的太空歌剧物语请大家收藏:dududu群星:舰与灵能的太空歌剧物语小说网更新度全网最快。