科技模块8——创新设计
一、机器人体系
你是否因为社区中的动物保护主义者而感到困扰?快来认领机器猫吧!它有着更长的爱猫时间、更多样的叫声
理论支持:事实上,人口无法快速扩张的现状和工业产能需要释放的事实的矛盾必将成为新世界的一大矛盾。因此机器人介入社会发展、占据社会空间是大势所趋。我们计划推广多种机器人承担社会功能。
概念界定:事实上,这里定义的机器人是广泛的大类概念,从服从命令、处理任务的机械臂,到自主应答、外形仿生的类生物都是我们要推广的范畴。
- 陪伴型机器人
- (见人群模块)在未来构想中,社会性失孤将成为困扰幸福度的一大问题,这是人均空间占有率极大膨胀的结果。因此,配套的陪伴机器人应当进驻社会生活,参与教育、商业等领域。当然,它们应当承担的另一大职能是促进人与人的连结,在此就不展开了。例如为老人配备机器猫狗作陪伴、导航、示警等多种功能。
- 工作用机器人
- 与诸如铲车、传送带等工作场景构成模块化组合,主要承担体力型任务。应具有信号接发模块(物联网),外设链接模块(连接控制不同设备),人机交互模块(虽然平常不需人但就是得有)等。
- 服务型机器人
- 区别于陪伴型机器人,要求更高的处理能力,更复杂的应用场景。运用高性能材料、柔性关节等新技术增强仿生性,使之应用到商业、家政、医疗领域中。
- 辅助型机械
- 区别于工作用机器人,辅助型机械直接接受人的指示,而非自动化系统的调控。如:仿生机械臂、外骨骼等。更多涉及生物信号而非电子信号的处理,在残障服务、军事设备等方向发挥效力。
- 特化机器人
- 包括纳米生物机器人、科研机器人等特殊类型。
二、公有制信息系统(待进一步修订)
2.1 背景、目的和概述
“葫芦计划”秉持为人类留火种、为人类做先驱的宗旨,将在接下来的百年计划中实现文明的存续和发展。这是一个艰巨的任务——在小体量的百万立方世界中,抵御高等级的文明灾难几乎是不可能的,譬如再遇上大灭绝事件,假如黑云再次遮蔽星球的上空,我们必将要躲入地底、依赖核能,以一种不稳定的状态苟延残喘,祈祷不会有其他天灾接续降临——你只能期望这种“小”可以让它遇上预算之外的灾难的概率为无穷小。
为实现文明的存续和发展,为向“信息共产主义”的远景迈进,我们决定建立一种新型的基于若干信息技术的公有制的信息知识管理系统,并在实践中验证和改进相关体制,以解决旧世界存在的信息不公平、资源不公平等问题。
为实现这些目标,我们将设计一个同时涉及人群、技术、信息和资源等方面的综合管理系统。其中将用到区块链、人工智能、量子计算等多类新型信息技术。
2.2 核心系统的具体实现
2.2.1 技术层面
2.2.1.1 信息分级分类系统
信息对于人类应用上来说是有不同的重要性的。为了减小开销,我们不可能将所有信息按照最高标准来保存;为了减小错误信息的负面影响,我们应该将信息的可信度做出区别…
我们将以AI为主,人工审核为辅,对人类产生的信息赋予不同属性(仅为初步分类):
- 元数据:此类数据较小、在AI处理信息中最先产生,将会上链保存。主要包含技术元数据(数据类型、字段长度、编码格式等)、业务元数据(数据字段的实际意义、数据的所有者、数据的业务规则等)、操作元数据(数据的变更记录、数据的质量评估结果等)。其中技术元数据和业务元数据有利于我们做进一步的数据分类评估操作,有利于相关数据的汇总整合,有利于居民进行信息查找。其中操作元数据是我们对信息管理的关键。通过对操作元数据的记录,我们能够轻易的实现其他信息的数据防伪、数据回滚和监管追溯等操作。
- 个人隐私数据:经过申请,此类数据将会被主要保存在居民的个人终端中,以减少隐私泄露的风险。用户可以自行设定密钥进行加密。并遵循自愿原则,可以将数据备份碎片化分散冗余存储到其他数据中心以防止数据丢失。但是在发生重大事件,经过社会公投同意确认必要性后,相关机构有权利调用超算对个人数据进行拷贝破解。私聊信息、个人生活信息属于此层。
- 可向机器公开数据:此类数据的公开有利于相关智能化机制的运行,但是又涉及个人隐私。居民有权选择公开此类隐私以获取相应的服务机制,也有权选择拒绝公开。此类数据经由同态加密,在无特殊居民公投授权下仅由相应被授权的AI等算法可读。一旦查阅到试图破解此类数据的行为,将判处相应惩罚。
- 可向人群公开数据:此类数据面向所有人群可见。主要包含学术研究信息、商业信息、博客类社交媒体信息、新闻信息。此类信息将会强调其附带的有关发布者信息等元数据,并提供AI的参考看法,以帮助人群确认信息的可信度、时效性、准确性和实用性。
- 流数据:此类数据若无特殊标记,将以三倍冗余三次碎片处理分布储存,以保障数据传输的安全性、准确性并同时兼顾速率和开销。在经分析后未经标记的数据将被销毁,以减轻存储负担。
- 静态数据:此类数据若无特殊标记,将以七倍冗余七次碎片处理分布存储,以获得更高的数据安全性能。
- 待验证的知识数据:此类数据一般情况下基本等同一般静态可向人群公开数据,它与发布者申请相关研究资源有关。
- 可信的知识数据:此类数据为旧世界带来的知识库或待验证的知识数据经答辩确认后转变。将以更高的冗余倍数和碎片存储。它将参与相关AI的训练,用于知识图谱的构建和知识的计算演算。所有的可信知识数据都是可向人群开放数据。此类数据一旦成立,便不可删除、不可修改,只能给予“更新”,即在末尾追加新的理论信息——正如我们不会因为了解了相对论就将牛顿定律删除一样。
2.2.1.2 区块链(此项将在获得更详细的资料后补充)
区块链是一种分布式数据库,它以一种安全的方式记录数字数据。 数据将被储存于所有参与者的终端中(3+2048),以去中心化的方式防止数据垄断。
当然,区块链上只能储存信息的访问、修改等较小的元数据,而不能存储实际文件,否则将会带来当前技术无法承担的通信和储存开销。但这已经足以降低知识信息被篡改的可能性了。
2.2.1.2.1 能耗
据不可靠信息来源,维护两千人的区块链系统的能耗大概在3000W左右。
2.2.1.2.2 共识机制
采用更灵活的共识算法,使得交易确认既快速又能保证安全性,同时还能适应不同的监管需求。
等待资料ing
2.2.1.2.3 监管机制
利用数据分析和人工智能技术来开发能够跟踪和分析区块链交易的工具。增加对非法活动的可追溯性。
2.2.1.3 AI
2.2.1.3.1 安全评估及监督管理体系
为防止AI叛乱,AI被恶意操纵等问题,我们对AI施行如下安全评估及监督管理制度:
- 道德引导:在AI的设计阶段就嵌入道德规范
- 超级对齐:要求AI系统能够在各种复杂环境下,自发推导出符合人类价值观的行动方针。
- 等级制度:让性能先进的强AI只能接触到较少的权限和数据,让性能落后、仅针对某一领域特化或更可解释更透明的AI进行对更广泛数据的处理和权限的操作。并让弱AI监管强AI,实现弱到强泛化。
- 人机协作:所有负责存储推演知识的AI,都有按领域配套专家学者混合研究验证结果。确保人类的决策权归于人类。
- 监管机构:负责AI研究的专家学者将持续对弱AI进行测试,对强AI进行数据监测抽测。
- 算力控制:我们的算力主要有3+2048台计算机分布式提供。其中7台是位于海底的超算,2048台性能稍弱的个人终端分配至居民个人(兼顾可移动性和算力、储存能力)。因此,我们可以借助区块链技术,民主地控制七台主要的超算,防止个人未经社会同意地部署强AI对社会造成危害,同时在面对AI自主反叛问题时,也能启动相关预案关闭超算限制AI算力,同时小计算机的设计可以一定程度上防止中心化设计的数据中心导致权力被垄断于某个群体。
- 修改记录:利用区块链及其他技术尽可能地记录所有对AI的外部访问行为,以追溯可能的攻击行为。记录AI对外部系统产生的副作用,以监管AI的状态。
- 容灾回滚:将重要的AI系统做分布式的备份,便于回滚。(同其他数据一样)
2.2.1.3.2 知识图谱、计算与推理
在旧世界,科学技术的传播和发展往往需要足够大的人口基数提供相应的社会需求和社会环境,需要不同文明间的交互交流,需要人群中的某个人的灵光一闪。但这些条件对一个仅拥有2048个人的小世界来说是难以成立的。因此我们需要借助AI保存并发展我们的知识。
- 知识图谱:我们对可信的知识数据按照学科本身逻辑关系开始着手进行分类,携带到新世界,按世界整体需求内部进行加权赋值(详见制度层)。我们将由此知识库开始构建人类的知识图谱。同时知识图谱的构建
- 知识计算:知识图谱的构建让我们可以方便的开展以知识引导的AI的开发。此类AI引入一定量的逻辑推理,具有更好的可解释性和准确率。可以让我们的智能化服务进一步升级,如搜索引擎优化、自然语言处理、医疗健康、金融服务和智能制造。
- 知识推理:我们将基于知识图谱和知识计算进一步提升AI的推理性能。力图让AI能够帮助人进行研究。当然我们仍保留对AI的限制策略,具有知识推理能力的AI所能访问的数据将会被限制在某一特定领域,在真正的解决方案诞生前,我们不希望AI过度发展。
2.2.2 制度层面(之后此项将移至人群等模块)
2.2.2.1 教育
我们的教育包含通识性教育和专业性教育。本块仅介绍通识性教育。 专业性教育将与科研融合。专业性知识的获取也是完全自由的,但是为了便于技术的监管,相关访问的留痕将会严格上链记录。
2.2.2.2 科研
在技术层我们提到,我们将从知识库构建知识图谱,按世界整体需求对知识内部进行加权赋值,对每一类知识安排一定量的人口进行学习研究。权重高的学科门类会被赋予更高的关注度,分配更多的人手进行细化的学习发展;权重少的学科门类则以保存知识为主要目标,分配较少人手甚至仅在学科大类分配人手。原因如下:
- 知识间并无绝对的高低贵贱之分,但在特殊的历史时期我们理应优先发展需求更大的学科门类。所以对于热门学科,我们会细化分配人口数量。
- 同时,需求更大的学科门类往往代表着社会主流的方向,主客观上会吸引更多人的兴趣。需求小的学科门类往往感兴趣的人口也相对较少。如此分配可以尽量满足居民的兴趣需要,让他们学习研究自己喜爱领域的知识。
- 我们对于冷门学科,仍要在学科大类分配人手,则是为了防止知识还在,但是没有人能读懂它、应用它的事件发生(恰如阿西莫夫在《基地》中所预言的)。我们要保证,当我们应急需要应用此类知识的时候,我们有人能快速学习相应细化的知识,如淋巴细胞进行分化一般,快速做出应答。
而每类分配有人口的知识,都会配备有经过特化训练的AI系统进行辅助学习研究。这个过程同时也在对AI进行训练、对AI进行验证。(即人与AI的交叉验证)
我们希望,知识为所有人共享。因此我们所有的知识都是面向人群公开的。
为确保新的知识仍保持公开性,为监督技术被合法利用,我们通过智能合约等手段,确保研究人员获取研究资源时必须公开项目进度和内容,并做出规范的记录;通过记录对应特化的AI学习系统的输入输出记录,对应知识系统的访问记录防止“私藏”知识的行为的发生。(这不免具有强制性质!)
三、可拆卸住宅(见生活模块)
四、太阳光降解塑料实现循环利用闭环
4.1 核心技术
该技术使用了铀酰离子作为催化剂,铀酰离子是从海水中提取的铀238,而非具有放射性的铀235。该技术使得塑料可以在室温常压下,借助太阳光的能量降解成基础化工原料,如苯甲酸和对苯二甲酸,这些原料可以用来生产新的塑料或其他产品。
4.2 作用
- 提供了一种节能且环保的塑料降解方式,有助于解决塑料废弃物带来的环境问题
- 实现了塑料从生产到再生产的闭环,促进了资源的有效利用
- 增加了塑料回收的价值,因为每回收1吨废塑料可以减少1至3吨的碳排放
溪
“陪伴型机器人”一节,要实现机器人的社会属性必然会碰到人工智能的伦理问题,比如是否允许陪伴型机器人维修、备份、复制,以及情绪安全保障等,我想知道在这方面有无细节设计和措施?
kwanny
任何伦理方面我们组都保持谨慎态度(科技也没这个水平)。事实上,我们想投入的是机器狗等简单智能(下文中”导盲“等字眼也有所显示),因此至多是数据转移的层次,远不必如此担忧。