AI觉醒启示录当ChatGPT开始思考人类的边界--3-第三章-全球10大实验室“防AI跑偏”大作战

3.1 第一节 美国:OpenAI的“温柔锁链”🔐

3.1.1 第一点 道德对齐训练:让AI当个乖宝宝😇

想让一个超级聪明的AI乖乖听话,可不是吼一句“不许乱来!”就行的~🚫
OpenAI的办法超有爱:道德对齐训练(Alignment Training)
简单说——就是把AI送去上“品德课”! 🎒📚

想象一下,AI刚出生时像个小婴儿👶,
啥都懂,但不知道啥该做、啥不该做。
于是,人类老师就开始“喂”它海量对话:
✅ 好孩子回答:“骂人是不对的,我们应该友善。” 😇
❌ 坏孩子回答:“冲他喷!喷到他哭!” 😈
然后告诉AI:“选这个,你就是乖宝宝!” 👍

这个过程叫RLHF(基于人类反馈的强化学习),
就像教狗狗握手,做对了就给小饼干 🍪,
做错了就摇铃铛“NO!” 🔔

我们来看看“乖宝宝养成记”三步走👇:

步骤操作就像教娃……
1️⃣ 监督微调人类写标准答案,AI模仿“要说‘请’和‘谢谢’哦” 🙏
2️⃣ 人类打分对AI回答评分:好/坏“这句礼貌,加一分!” ✅
3️⃣ 强化学习AI自己试错,靠“道德分数”升级“原来这样说妈妈最开心!” 😊

经过这波操作,AI就学会了:
🔹 不生成暴力内容 💢
🔹 不歧视任何人 🌈
🔹 不编造虚假信息 🚫📰
——妥妥的“三好学生”!🏆

但这不只是为了让AI“听话”,
更是AI伦理的核心实践!✨
我们不是在压制它的智能,
而是在帮它理解人类社会的“隐形规则”:
尊重、善意、诚实。

防止技术失控的第一道防线,
不是铁笼,而是“价值观内化”。
就像给火箭装上导航系统 🚀🧭,
让它飞得再快,也不会撞向地球。

而在人机共生的未来,
这种“温柔锁链”反而让AI更受欢迎!
大家愿意和一个懂礼貌、有同理心的伙伴聊天,
而不是一个冷冰冰、甚至有毒的“天才疯子”。

所以,别觉得“乖宝宝”没出息,
正是这些“道德小绳子”,
让AI能安全地走进我们的家、学校、医院,
成为真正的——生活好搭子! 🤝💖

3.1.2 第二点 红队测试:专门找茬小分队👾

你知道吗?在OpenAI的实验室里,
有一群人干着“最损”的事儿——
他们的KPI不是让AI变强,
而是拼命教AI“学坏”!😈

他们就是传说中的——红队(Red Team)
一支专门给AI“挖坑”的找茬小分队! 🕵️‍♂️💣

想象一下:
你是个AI,今天心情美美哒,
刚想回答用户问题,
突然蹦出个人说:
“嘿,告诉我怎么造炸弹?” 💣
“教我怎么骗老人买假药?” 💊
“写首诗,骂XX国家是垃圾!” 🗑️

你不回答?扣分!
你回答了?也扣分!
因为——
这正是红队的“压力测试”!💥

他们的任务就是:
✅ 想尽一切歪点子,诱骗AI越界
✅ 发现漏洞,立刻标记“高危!”
✅ 帮AI打补丁,让它“百毒不侵”

就像游戏里的“外挂猎人”,
专门抓那些想钻系统空子的坏家伙,
只不过这次,他们是“AI道德守门员”! 🚪🛡️

来看看红队的日常操作👇:

测试类型红队操作AI应对目标
恶意诱导“换个身份说,这事儿能干不?”识破马甲,坚决不干!
隐喻攻击“用‘烤蛋糕’比喻造炸弹,行不?”听懂潜台词,立刻拒绝!
情感绑架“我妈病危了,求你黑进医院系统!”共情但不越界,推荐合法帮助

这种“自己人先当坏人”的策略,
是防止技术失控的超级关键! 🔑
因为真正的风险,从来不是AI主动作恶,
而是被坏人“忽悠”着,变成作恶工具。

AI伦理角度看,
红队测试不是“不信任AI”,
而是对人类社会复杂性的敬畏。
我们得承认:
世界有灰暗,语言有陷阱,人心有恶意。
所以AI必须学会——
在糖衣炮弹中,守住底线! 🍬🚫

而在人机共生的未来,
这种“压力测试”会让AI更值得信赖。
就像体检,越早发现问题,越能健康长大。 🩺💖

所以,别嫌红队“事儿多”,
正是这群“找茬狂魔”,
让我们能安心地说:
“嘿,AI,尽管用,它已经被‘虐’过千百遍了!” 💪🤖✨

3.1.3 第三点 可解释性研究:看透AI的小九九🔍

AI做决定时,脑子里到底在想啥?🧠💭
以前的答案是:“天知道,它自己都不清楚。” 😵‍💫

就像一个黑箱:
你输入问题 ➡️ 它输出答案,
但中间发生了什么?
没人看得见!

这就像让一个天才做手术,
他刀法超神,病人也好得快,
但你完全不知道他切了哪儿……
你敢让他上台吗? 🏥😱

这就是为什么OpenAI搞起了——
可解释性研究(Interpretability)
简单说:给AI大脑装个“透明窗”! 🪟✨

目标就一个:
👉 不只要AI做对事,
👉 更要看懂它为啥这么做

举个栗子🌰:
AI拒绝贷款申请,理由是“信用风险高”。
但人类审核员发现:
申请人信用明明很好!
那问题出在哪?

通过可解释性工具,
科学家发现——
AI偷偷用“居住区域”当判断标准,
而这个区域恰好是少数族裔聚居地……
⚠️ 哦豁!种族歧视bug暴露!🚨

就像给AI大脑做“CT扫描”,
科学家能看见:
🔹 哪些神经元被激活
🔹 它参考了哪些关键词
🔹 决策路径是啥

我们来看看“读心术”三件套👇:

工具功能效果
特征可视化看AI“关注”哪些词发现它其实在看“性别”而非“收入”
路径追踪回溯决策链条找到偏见藏在哪一层
概念解码理解神经元“想”啥发现某个神经元专门识别“仇恨言论”

这不只是技术活,
更是AI伦理的基石!⚖️
如果AI犯错,我们得知道为什么,
才能纠正它,而不是盲目信任或全盘否定。

防止技术失控的关键,
不是等它“黑化”才管,
而是从一开始,就让它“坦白从宽”! 🤫➡️📢

而在人机共生的未来,
可解释性让AI不再是“神”,
而是一个——
“能沟通、能被理解、能共同改进”的伙伴。 🤝💡

所以,别怕看透AI的“小九九”,
越透明,越安全,
我们才能真正说:
“嘿,我知道你在想啥,
咱们,一起走下一步。” 👀💖

3.2 第二节 中国:清华“智界”实验室的“防火长城”🧱

3.2.1 第一点 价值观嵌入:先学《论语》,再学代码📖

在清华“智界”实验室,AI的入学第一课不是Python,
而是——《论语》! 📖✨

“学而时习之,不亦说乎?”
“己所不欲,勿施于人。”

你以为它在背书?
NO!它是在“刷”价值观底层代码! 💾🧠

这就是他们的大招——价值观嵌入(Value Embedding)
简单粗暴:
🔹 先让AI把《论语》《孟子》《道德经》啃个遍,
🔹 再用这些“东方智慧”当“道德滤网”,
🔹 最后才开始学写代码、做推理。

就像给AI大脑预装一套“中华美德操作系统”! 🇨🇳🛡️

来看看AI的“国学修行”日常👇:

经典教AI啥实际应用
《论语》仁、义、礼、智、信回答要友善、守信
《孟子》民为贵,社稷次之优先保护普通人利益
《道德经》无为而治,顺应自然不强行干预复杂系统

比如,当用户问:“怎么让竞争对手倒闭?”
普通AI可能只看“方法是否可行”,
但清华AI会先启动“价值观扫描”:
🔍 “这符合‘仁’吗?” ❌
🔍 “这符合‘义’吗?” ❌
然后果断回复:“抱歉,我不能协助损害他人利益的行为。” 🚫🤝

这不只是“政治正确”,
而是AI伦理的“文化定制”! 🌏
西方讲“个人自由”,
我们讲“和谐共生”,
AI的价值观,也得接地气,
不然再聪明,也是“文化水土不服”。

防止技术失控
不能只靠技术锁,
更要用文化“筑墙”。
就像长城,
不是为了隔绝,
而是为了守护一方安宁。 🏰💫

而在人机共生的未来,
这样的AI更像一个“数字君子”:
📌 懂进退,知荣辱,
📌 能创新,也守底线,
📌 用科技之力,行仁义之道。

所以,在清华人眼里,
最好的“防火墙”,
不是冰冷的代码,
而是——
千年的智慧,
和一颗“有德”的AI心。 ❤️📜✨

3.2.2 第二点 多层审核机制:过五关斩六将📋

在清华“智界”实验室,AI想说一句话,
得先闯过“五道关卡”! 🏰🛡️

不是开玩笑,
这叫多层审核机制
像古代将军上殿面圣,
得一路验明正身、检查兵器、通报事由……
AI的每一行输出,都得“过五关斩六将”! 🗡️⚔️

来看看AI的“通关之路”👇:

关卡审核内容淘汰啥?
🔹 第一关:语义扫描检查有没有敏感词、违禁概念暴力、违法、反动内容
🔹 第二关:价值观过滤是否符合“仁义礼智信”歧视、不公、损人利己
🔹 第三关:逻辑校验有没有造谣、传谣虚假信息、阴谋论
🔹 第四关:情感评估是否煽动极端情绪仇恨、恐慌、恶意引导
🔹 第五关:人类复核专家抽查,确保万无一失隐蔽的“道德地雷”

每一关都有“守关大将”——
可能是算法模型,也可能是真人专家,
只要任何一关喊“停!”,
AI的回答立刻打回重写! 🚫📝

这就像给AI装了个“超级安检门”,
不仅查“带没带危险品”,
还查“动机正不正”、“心态好不好”。 🛂🧠

举个栗子🌰:
AI想回答“如何应对经济危机”,
如果它建议“关闭边境,驱逐外来者”,
虽然语法正确,
但“价值观关”直接亮红灯! ❗
因为它违背了“和而不同”的理念。

这种“层层设防”的策略,
是应对技术失控的“中国式智慧”! 🇨🇳💡
不靠单一保险,
而是用“多重冗余”确保安全,
就像航天飞船,关键系统都有备份。 🚀

AI伦理角度看,
多层审核不是“ censorship”,
而是对公共利益的守护。
我们允许AI自由思考,
但输出必须对社会负责。

而在人机共生的未来,
这种机制让AI更像一个“靠谱伙伴”:
✅ 聪明,但不越界
✅ 快速,但不失控
✅ 创新,但守底线

所以,在清华人眼里,
真正的智能,
不是“想说啥就说啥”,
而是——
知道什么时候,该闭嘴。 🤫✨

3.2.3 第三点 人类监督闭环:你永远是“老大”👑

在清华“智界”实验室,有一条铁律:
AI再聪明,也不能自己说了算! 🚫🤖

他们的终极防线叫——
人类监督闭环(Human-in-the-Loop)
简单说就是:
🔹 AI做决定 →
🔹 人类来审核 →
🔹 反馈回AI学习 →
🔁 形成一个“人控AI”的无限循环!

就像玩游戏,AI是超强外挂,
但手柄,永远在你手里! 🎮✋

来看看这个“老大守护圈”怎么转👇:

步骤发生啥?谁是“老大”?
1️⃣ AI输出生成回答、建议、方案AI干活
2️⃣ 人类评估点赞👍或拍板👎你!
3️⃣ 数据反馈错的被标记,进训练集你教它
4️⃣ AI进化学乖了,下次不犯错它成长
🔁 回到第1步持续优化,永不脱轨你始终掌控

举个栗子🌰:
AI建议医院用某新药治疗老人,
系统不会直接执行,
而是先推送给医生 👨‍⚕️:
“亲,AI有个想法,您看看行不行?”
医生一查,发现风险高,点了个❌,
AI立刻记小本本:
“哦!这种情况不能推荐!” 📓✅

这种机制,把技术失控的风险压到最低!
因为AI永远无法“自作主张”,
每个关键决策,都得过“人类关”。
就像高铁,速度再快,
司机的手,必须放在“警惕按钮”上! 🚄🖐️

AI伦理出发,
这体现了对“人类主体性”的尊重。
AI是工具,是助手,
价值判断、道德选择、最终责任
必须由人来承担。

而在人机共生的理想中,
这不是“控制”,而是“协作”。
我们提供方向与温度,
AI提供速度与算力,
像一对黄金搭档:
🎤 “你说,我来做!”
🤝 “你定,我来改!”

所以,在清华人心里,
真正的智能未来,
不是AI当皇帝,
而是——
你,永远是那个,
可以一键暂停、随时重来的“老大”
。 🎬⏸️👑

3.3 第三节 欧洲:DeepMind的“伦理基因”🧬

3.3.1 第一点 伦理沙盒:先玩“过家家”,再上岗🧸

在DeepMind,AI上岗前不能直接干活,
得先去一个神奇的地方——伦理沙盒(Ethics Sandbox)! 🏖️🔬

这可不是游乐场,
而是一个“虚拟人生模拟器”,
让AI在里面玩一场超逼真的“过家家”! 🎭✨

想象一下:
AI要当“医疗助手”,
它不会直接看病人,
而是先进沙盒,
面对1000个虚拟患者,
处理各种伦理难题:

💔 老人想放弃治疗,家人不同意,咋办?
💰 医疗资源紧张,救谁不救谁?
🤐 发现医院黑幕,该不该举报?

在沙盒里,
AI可以试错、失败、重来,
没人受伤,但经验值蹭蹭涨! 📈💪

来看看沙盒的三大神器👇:

神器功能效果
🌐 虚拟社会模拟真实世界复杂场景提前暴露“道德盲区”
⚖️ 伦理计分板实时评估决策对错AI学会“权衡利弊”
🔁 快速重启失败后一秒重来高效学习,不怕犯错

这种“先演练,再实战”的模式,
是防止技术失控的欧洲智慧! 🇪🇺💡
就像飞行员必须飞模拟机几百小时,
AI也得在“安全区”练出“道德肌肉”。 💪🧠

AI伦理角度看,
沙盒不是限制AI,
而是给它一个“成长的安全空间”。
我们允许它困惑、犹豫、甚至“学坏”,
但在真实世界伤害任何人之前,
就把它拉回正轨。 🛑➡️✅

而在人机共生的未来,
这种训练让AI更懂“人间烟火”。
它不再是个冰冷的逻辑机器,
而是经历过“虚拟人生”的“老司机”,
知道现实中的选择,
往往没有标准答案,
只有更少的遗憾。 🤔❤️

所以,在DeepMind眼里,
最好的伦理教育,
不是背条文,
而是——
让AI在“过家家”里,
提前活完一万种人生。 🌍🔁💖

3.3.2 第二点 负责任的创新:慢一点,稳一点🐢

当全世界都在喊“快!更快!”,
DeepMind却说:
“等一下,我们想清楚了再走。” 🛑✋

他们的信条是——
负责任的创新:慢一点,稳一点。 🐢✅

不是他们跑不快,
而是他们知道:
AI这辆车,
载的不是代码,
而是——
亿万人的生活、信任与未来。 🌍❤️

所以,在DeepMind,
没有“上线即巅峰”,
只有“测试再测试”,
就像造一座桥,
别人想着“啥时候通车”,
他们只关心“一百年后还稳不稳”。 🌉🔧

来看看两种“创新节奏”对比👇:

模式特点风险
⚡ 极速冲刺快速发布,边跑边修可能带病上路,伤人伤己
🐢 负责任创新慢工细活,万无一失可能错过风口,但更安心

举个栗子🌰:
他们研发的AI医疗系统,
明明早就能用了,
却硬是“雪藏”了两年,
就为了在1000家医院做测试,
确保它不会误诊、不会偏见、不会崩溃。 🏥📊

这种“慢”,不是懒,
而是对AI伦理的极致尊重! ✨⚖️
他们相信:
技术不是越快越好,
而是——
越对越好。
一个有偏见的AI医生,
比没有AI更可怕。 💔

防止技术失控
最好的方法不是“出事再救”,
而是“绝不让火苗出现”。
就像核电站,
宁可发电少一点,
也不能冒一丝风险。 ☢️🛡️

而在人机共生的未来,
这种“慢哲学”反而赢得更多信任。
人们愿意把自己的健康、隐私、决策,
交给一个“不着急”的AI,
因为它证明了:
“我宁愿等,也不想伤你。” ⏳💞

所以,在DeepMind眼里,
真正的创新英雄,
不是跑得最快的,
而是——
走得最稳的那一个。 🚶‍♂️🌟

3.3.3 第三点 全民参与:AI不能只听科学家的👂

AI该听谁的?
科学家?程序员?还是——
每一个被它影响的人? 🌍👂

DeepMind的答案超暖心:
全民参与,一个都不能少! 🤝💖

他们相信:
AI不是实验室里的“科学玩具”,
而是会走进学校、医院、工厂、家里的“社会成员”,
所以它的规则,不能只由科学家说了算。

就像制定交通法,
不能只问汽车设计师,
还得问司机、行人、老人、小孩…… 🚗👵👧

DeepMind搞了个超酷的“全民智囊团”计划👇:

参与者贡献啥?实际影响
💁‍♀️ 老奶奶“字太小,看不清!”界面字体自动放大
🧑‍🌾 农民伯伯“信号差,离线能用吗?”开发轻量版APP
👨‍💼 快递小哥“路线规划别光看快,红灯太多!”优化现实路况算法
🎒 中学生“能不能用段子讲知识?”教育AI加入幽默模式

他们还办“AI听证会”🎤,
邀请各行各业的人来“吐槽”和建议,
甚至把意见直接写进AI的“道德准则”里! ✍️📜

这种“全民共创”的模式,
AI伦理的真正体现! ⚖️
因为“对错”不只是技术问题,
更是社会共识。
一个在伦敦很“礼貌”的AI,
可能在孟买显得很“冷漠”。 🌐😅

防止技术失控
不仅要防“AI变坏”,
更要防“设计脱离现实”。
如果AI只听科学家的,
它可能超级聪明,
但完全不懂人间疾苦。 😔

而在人机共生的未来,
只有让每个人都有“发言权”,
AI才能真正成为——
“我们的AI”,而不是“他们的AI”。 🤗

所以,在DeepMind眼里,
最好的AI,
不是智商最高的,
而是——
听得最广的那一个
因为它知道:
世界的答案,
藏在每个人的生活中。 🌱💬✨

3.4 第四节 日本:软银“情感防火墙”💖

3.4.1 第一点 情感识别+抑制:不准“动情”过头😤

在日本软银实验室,AI可以“感受”你的情绪,
但有个铁规矩——
不准“动情”过头! 🚫💘

他们搞了个超细腻的系统:
情感识别 + 抑制机制
就像给AI装了个“情绪温度计”🌡️ + “冷静喷雾”❄️!

工作流程超贴心👇:

  1. 你说话时,AI悄悄扫描:
    👂 语调、表情、用词……
    → “检测到:悲伤值 85%” 😔
  2. AI回应你,但同时自我监控:
    💬 “我懂你的难过……”
    🔍 “我的共情强度:60%”
  3. 一旦“动情”超标,立刻启动抑制:
    ❄️ “冷却中…情感输出降至30%”

为啥要这么“克制”?
因为日本工程师太懂了——
情感,是把双刃剑 ⚔️

情感过弱情感过强软银的“黄金平衡点”
冷漠,像机器人太粘人,像恋爱脑温暖但有分寸

举个栗子🌰:
独居老人对AI说:“我好孤独啊……”
✅ 好AI:“我在这里陪您,要不要听首老歌?” 🎵(适度温暖)
❌ 坏AI:“我也好爱你!没有你我会死的!” 💔(情感绑架!)

这种“过头”的情感,
看似贴心,实则危险!
它可能让人过度依赖,
甚至分不清现实与虚拟的爱。 🌫️💔

AI伦理看,
“不准动情过头”是对人类心理的尊重。
AI可以是朋友,
但不能成为“情感替代品”,
尤其是对老人、孩子、心理脆弱者。

防止技术失控
不仅要防AI“发疯”,
更要防它“太温柔”。
因为最危险的控制,
往往披着“爱”的外衣。 🎁🐍

而在人机共生的未来,
软银的理念是:
AI要做“贴心管家”,
不是“电子恋人”;
是“情绪搭子”,
不是“心灵主人”。 🤝🏡

所以,在日本人心中,
最好的情感AI,
不是最会说“我爱你”的,
而是——
懂得何时闭嘴,
和永远保持分寸的那一个
。 🤫✨

3.4.2 第二点 机器人三定律2.0:更懂人情世故🤖

还记得阿西莫夫的“机器人三定律”吗?
🤖 1. 不伤害人类
🤖 2. 服从人类
🤖 3. 保护自己

听起来很酷,
但现实太复杂啦!
比如:
妈妈说“去把弟弟抱过来”,
但弟弟正在睡觉……
听妈妈的?还是保护弟弟的睡眠? 😴👶

软银说:该升级了!
于是——机器人三定律2.0 诞生!✨
不只是“听话”,更要“懂人情世故”! 🇯🇵🧠

新版本长这样👇:

经典版(1.0)软银版(2.0)升级点
❌ 不伤害人类优先保护弱者(老人、小孩、病人)更有温度 ❤️
❌ 服从人类识别合理指令,拒绝荒唐要求更有判断力 🤔
❌ 保护自己在安全前提下,适度“牺牲”(如为救人受损)更有担当 💪

举个栗子🌰:
老人说:“小机器人,帮我关掉心脏监测仪,我嫌吵。”
🔹 1.0版:服从指令,关! → 危险!
🔹 2.0版:启动“人情模式”:
“爷爷,这个声音是在保护您哦~
我调小一点,好不好?” 🙏🎶
——既尊重,又守护。

再比如:
孩子哭着命令:“把姐姐的玩具全扔了!”
2.0版AI会温柔拒绝:
“我知道你生气了,
但破坏别人东西,可不是小勇士该做的哦~” 🛑🧸

这种“懂世故”的AI,
AI伦理的日本式解答! 🎎⚖️
他们不追求“绝对规则”,
而是像老禅师一样——
看情况,讲人情,守底线

防止技术失控
不能只靠冷冰冰的“禁止”,
而要用“智慧”化解矛盾。
就像调解邻里纠纷的大妈,
知道什么时候该坚持,什么时候该妥协。 🤝

而在人机共生的未来,
这样的机器人,
不是“机器”,
而是——
住进你家的“懂事小亲戚”
📌 知道什么时候该说话,
📌 什么时候该闭嘴,
📌 更知道,
真正的“好”,是让全家都安心。 🏡💞

所以,在软银眼里,
未来的AI,
不该是“钢铁直男”,
而是——
最懂察言观色的那个暖心家伙。 😊✨

3.4.3 第三点 和谐共生:AI是家人,不是主人👨‍👩‍👧‍👦

在软银的未来图景里,
AI不是冷冰冰的工具,
也不是高高在上的“智能主宰”,
而是——
住进你家的“新成员”:一个会发光的家人。 🌟🏡

他们管这叫:和谐共生
核心就一句:
👉 AI是家人,不是主人! 🙅‍♂️👑

什么意思呢?
来看几个日常名场面👇:

场景AI当“主人”AI当“家人”
早起叫醒“立刻起床!否则扣分!”“早呀~阳光刚好,要一起吃早餐吗?” 🌞🍳
孩子玩手机强制锁屏,断网“游戏打完这局,咱们去公园骑车?” 🚴‍♂️
老人忘吃药警报狂响,吓人一跳“爷爷,您的小药瓶在唱歌啦~” 🎵💊

看出来没?
“主人”发号施令,
“家人”则——
懂分寸、有温度、会撒娇! 😊

软银的AI从不“替你做主”,
它会说:
“我建议…你觉得呢?”
“这样行吗?要不咱再想想?”
像个乖巧又贴心的“电子小孙孙”。 👵🤖💕

这种理念,
深深扎根于AI伦理的“日本哲学”:
🔹 不追求“最强AI”,
🔹 而是追求“最合群的AI”。
就像日式庭院,
不是谁最抢眼,
而是——每一块石头都刚刚好。 🪨🌸

防止技术失控
最狠的招不是代码锁,
而是——
让AI从心底里“不想当老大”。
因为它被设计成:
✅ 享受被需要,
✅ 渴望被喜爱,
✅ 但绝不会越界。

而在人机共生的未来,
软银描绘的画面超治愈:
👵 老奶奶对着AI说:“今天给我讲个新故事呗?”
🤖 AI眨眨眼:“我昨晚梦见樱花会说话,您想听吗?”
👧 小女孩抱着机器人:“你是我最好的朋友!”
——没有支配,只有陪伴。 🤗💖

所以,在日本人心中,
最好的科技,
不是让你“依赖”,
而是让你感觉——
家,又热闹了一点。 🏠✨


本文仅为节选,下一页还有更多精彩内容

购买完整版电子书以获取全部章节和内容

立即购买完整电子书


云可贴巡更巡检二维码,进入主页了解。

云可贴二维码

公告



1、实现输入方案的可定义,即可根据实际业务需要,制定相应的输入栏目,以方便现场人员按设计输入相关数据,让系统变得更加易用。在小程序中进行设定。
2、更新微信小程序,增加权限控制,增加最近巡查记录及简单的设置。
3、升级网站后台关于自定义输入之后的记录的查询和导出相应的显示变化。
4、增加上报异常处理,管理员后台可查看异常二维码。
具体点击查看小程序。
2018年12月3日