1. 客户满意度1.1. 长久以来许多人一直对机器人心怀忧虑1.1.1. 往好里说你会惹恼员工和客户1.1.2. 往坏里说你会彻底失去他们的信任1.2. 如果输入的数据是“垃圾”—更具体地说是带有冒犯性的“垃圾”​那么输出的结果很可能也是带有冒犯性的“垃圾”​1.3. 或许你永远无法彻底消除人们对人工智能的顾虑但一些真诚的行动—比如展现出你对人工智能应用的用心考量和深思熟虑会大有裨益1.4. 透明度1.4.1. 企业应在官网及内部员工平台公开披露人工智能在组织内的应用情况涵盖所有服务、系统、软件及技术架构的各个环节1.4.2. 让员工清楚地知道使用了哪些类型的人工智能应用在哪些场景对决策产生了怎样的影响1.5. 数据安全与隐私1.5.1. 数据保护是合理使用人工智能的核心环节1.5.2. 客户希望了解自己的数据存储位置、访问权限、处理方式以及如何确保第三方不会滥用其敏感信息1.6. 偏见问题1.6.1. 企业必须定期对组织进行审查和审计确保人工智能系统中不存在偏见问题1.6.2. 贯穿人工智能生态系统的各个环节从训练数据采集、算法设计到输出结果生成再到使用者资质审核以及数据决策应用1.7. 人类始终在决策闭环中1.7.1. 最能让客户安心的举措之一是向他们表明人类始终对人工智能拥有最终控制权1.7.2. 临床笔记总结与转录人工智能工具Tortus要求临床医生必须对所有人工智能生成的内容进行审核和检查1.7.3. 确保人类始终处于决策闭环中就能有理有据地反驳“机器人正在掌控一切”的说法—“不人类始终拥有最终控制权。​”1.8. 乐于接受反馈并持续改进1.8.1. 让客户能够便捷地提供反馈并积极付诸行动有助于建立信任1.8.2. 通过展现企业愿意根据客户反馈和偏好调整和改进人工智能的态度能向外界表明是人类在主导人工智能的应用而非被人工智能所控制1.9. 第三方认证1.9.1. 外部独立的第三方认证可提供有效的品质标识1.9.2. 尽管这一领域尚在发展阶段但企业很可能会越来越希望向外证明他们并非在“自吹自擂”​而是对自身的人工智能应用方式有足够信心并愿意接受外界评估1.10. 微软2024年人工智能透明度报告1.10.1. Microsoft 2024 AI Transparency Report1.10.2. 生成式应用的构建方式1.10.3. 关于“构建什么”的决策过程1.10.4. 如何支持客户负责任地构建生成式人工智能1.10.5. 生成式人工智能的发展前景1.11. 最佳做法是倾听客户的声音1.11.1. 通过直接反馈、问卷调查或“神秘顾客”等方式定期询问他们对人工智能的看法与感受1.11.2. 他们担忧什么原因是什么1.11.3. 只要始终围绕核心利益相关者的需求与诉求来规划行动你就能明确应采取哪些举措确保他们对企业的人工智能应用感到放心1.12. 与客户和利益相关者保持紧密联系的最佳方法之一是开展用户研究1.13. 采取措施降低风险1.13.1. 量化整体用户群体特征确保访谈对象具有代表性。若无法完全规避风险则需在整个研究过程中时刻留意那些难以缓解的风险1.14. 既要意识到这些风险的存在也不能因风险而阻碍工作—没有任何数据或研究是完美无缺的1.15. 研究的开展过程必须严谨且一致获取并记录用户的知情同意告知他们研究收集的数据将如何使用1.16. 探索性研究了解用户在现有或潜在产品、服务、交易如投资理财方面的潜在需求1.17. 流程梳理清晰描述用户为达成特定目标所经历的端到端流程即 “用户旅程”​​1.18. 改进性研究让用户测试原型或已上线的服务观察他们与技术的互动方式从而发现优化改进的机会1.19. 深度访谈由研究人员与用户直接进行一对一交流通过一系列开放式和封闭式问题收集信1.20. 观察法或可用性测试为用户设定特定任务​观察其操作过程并记录相关见解1.21. 小组活动形式多样例如引导多名用户共同绘制端到端流程或进行“卡片分类”—让用户将主题卡片归入不同组别1.21.1. 有助于了解用户对信息的分类方式它所揭示的是用户天然的逻辑认知而非企业预设的信息分类逻辑2. 人工智能法律法规2.1. 人工智能属于通用技术其对世界的改变将以我们目前无法预见的方式展开2.2. 欧盟2.2.1. 2024年正式通过的《欧盟人工智能法案》​EU AI Act​是首次具有重要意义的跨国人工智能监管实践2.2.2. 低风险涵盖人工智能的大多数应用2.2.2.1. 垃圾邮件过滤器、电子商务中使用的人工智能推荐系统等2.2.2.2. 对使用这类系统的机构未设定义务性要求2.2.3. 有限风险如聊天机器人、人工智能生成的视频或图像内容等2.2.3.1. 相关机构必须确保客户知晓这些服务采用了人工智能技术2.2.4. 高风险包括医疗设备中的安全组件、执法领域的人工智能系统、教育系统中的人工智能应用等2.2.4.1. 需遵守严格的监管要求2.2.5. 不可接受风险例如社会评分系统如信用评分​、实时生物识别工具的大部分使用场景等2.2.5.1. 此类应用被明令禁止2.3. 美国2.3.1. 自动驾驶汽车美国国家公路交通安全管理局NHTSA负责监管汽车领域人工智能的应用2.3.2. 贸易领域联邦贸易委员会FTC针对人工智能制定了专门的消费者保护条款2.3.3. 司法领域司法部DOJ对算法的安全与公平使用提出了人工智能相关要求2.3.4. 保持美国在全球人工智能领域的领先地位2.3.5. 推动联邦政府使用“可信人工智能。​”2.3.6. 实现人工智能的安全、可靠与可信开发及应用2.4. 中国2.4.1. 互联网信息服务算法推荐管理规定2.4.1.1. Provisions on the Administration of Algorithm-generated Recommendations for Internet Information Service2.4.2. 新一代人工智能伦理规范2.4.2.1. Ethical Norms for New Generation Artificial Intelligenc2.5. 超过30个国家签署的《布莱切利宣言》​Bletchley Declaration​该宣言鼓励国际合作并聚焦发展“可信人工智能”​2.6. 经合组织人工智能原则2.7. 联合国教科文组织的《人工智能伦理问题建议书》2.8. 一个快速发展、不断变化的领域2.9. 人工智能领域的规范主要由指导意见、框架和原则构成2.10. 在这个全球化且互联互通的世界中各国的监管方式存在显著差异2.11. 为合规工作预留充足预算2.11.1. 跟进行业动态及调整内部政策均需成本投入务必将其纳入预算2.11.2. 实际上是“入场费”​也是开展业务的必要支出2.12. 从原则入手2.12.1. 法律法规的存在既是为了保护客户也是为了让你的业务更完善2.13. 记录并审计所有事项2.13.1. ​《欧盟人工智能法案》是目前人工智能领域要求最严格的法律条文之一2.13.2. 以其为基准对部分公司而言可能有些过于严苛但也不失为一种明智的做法2.14. 持续更新与前瞻预判2.14.1. 关注风险与法律变化是一项持续性工作2.14.2. 你面临的风险在不断变化监管环境亦是如此2.14.3. 应专门分配少量但固定的资源用于此项规划3. 职业发展3.1. 纵观历史通用技术在摧毁就业机会的同时也会创造新的岗位3.1.1. 在飞机出现之前不存在航空业3.1.2. 在汽车诞生之前也没有汽车产业3.1.3. 人工智能很可能也会重演这种“取代与创造并存”的戏码3.2. 首席人工智能官的出现如同约10年前首席数字官Chief Digital Officer,CDO的兴起标志着众多企业的思维模式发生了转变3.2.1. 最明确的体现之一便是将人工智能相关工作职能提升至最高管理层级别3.3. 提示词工程师prompt engineers一度被视为极具潜力的新兴职业3.4. 任职要求3.4.1. 能够通过精准设计的提示词改变大语言模型的行为或引导其产生目标行为3.4.2. 深入理解大语言模型及其架构包括全面掌握GPT等Transformer模型的底层工作原理3.4.3. 熟练掌握提示词工程技术如少样本学习、思维链提示、自动提示词生成、ReAct框架等3.4.4. 擅长通过BLEU、ROUGE等指标评估和探究大语言模型的输出质量或运用评估框架衡量模型的推理、编码等能力3.4.5. 具备开发实际应用的经验能利用大语言模型完成问答、文本生成、编码辅助等任务3.4.6. 能够通过统计与数据可视化分析模型性能3.4.7. 具备良好的编程技能熟练掌握Python3.4.8. 具有出色的书面表达与口头沟通能力3.5. 加分项3.5.1. 拥有在世界级研究团队中与科学家和工程师协作的经验3.5.2. 具备丰富的Python使用经验包括理解语言细节、掌握多样的Pythonic编程风格以及熟悉庞大的生态系统与广泛的工具3.5.3. 拥有直接的研究经历如技术领域博士学位或在NeurIPS、ICML、ICLR等会议上发表过重点论文​3.5.4. 具备深厚的语言学理论知识3.6. 对标同行3.7. 倾听团队声音密切关注团队动态3.8. 审视风险清单技术发展既会带来新机遇也会伴随着新风险3.9. 人力成本不菲而新兴的人工智能热门岗位在市场上往往薪资高昂3.10. 抛开预算投入不谈招聘这类人工智能专业岗位向利益相关方与市场释放的信号是你正认真对待人工智能时代的到来