生成式人工智能(AI)引导

生成式人工智能(AI)引导

定义及目的

人工智能指的是开发机器或软件的广泛领域,这些机器或软件可以执行通常需要人类智能的任务, 包括学习, 推理, 解决问题, 感知, 语言理解, 和更多的.

生成式人工智能(AI)是指能够创造新内容的人工智能技术的一个子集, data, 或者类似于人类产生的输出的信息. 这些技术利用机器学习模型和深度学习算法来分析和学习现有数据, 从而产生新的输出,可以包括, 但不限于, 文本, 图片, audio, 和视频.

人工智能的范围

本指导文件概述了道德规范, 负责任的, 以及在大学内安全使用人工智能(AI). 本指南旨在支持大学的教育使命, 研究, 和社区服务,同时保护所有利益相关者的诚信, 隐私, 和权利. 它涵盖了人工智能工具的使用, 包括但不限于机器学习模型, 自然语言处理系统, 以及基于人工智能的搜索和管理工具.

本页着重于对新大学生、教师和工作人员的指导. 它分为以下几个部分:

  1. 关键的考虑
  2. 教育者的指导
  3. 学生指导
  4. 人工智能在研究中的实际应用
  5. 知识产权指引
  6. 国际旅行注意事项
  7. 采购及合约

关键的考虑

  • 侵犯隐私: 而强大的, 人工智能模型在接受个人数据训练时,可能会无意中泄露敏感信息, 导致隐私泄露. 另外, 人工智能生成的合成数据有时可以通过逆向工程来识别个人, 强调需要谨慎和意识.
  • 知识产权及版权事宜: 生成式AI可以产生类似的内容,也可以直接复制已有的作品, 可能侵犯知识产权. 这可能导致在确定人工智能生成内容的所有权方面的法律纠纷和挑战.
  • 隐私问题: 生成的人工智能, 它能够创建包括个人信息在内的真实合成数据, 引起了严重的隐私问题. 这些综合数据, 如果不小心处理, 可以被滥用于身份盗窃吗, 监测, 或者其他恶意活动.
  • 安全风险: 生成式人工智能可以创建复杂的网络钓鱼骗局、深度伪造和其他形式的网络攻击. 检测和防御这些可能具有挑战性,带来重大的安全风险.
  • 偏见: 人工智能模型可以继承它们所接受训练的数据中的偏见, 导致不公平或歧视性结果的.
  • 准确性: 人工智能用户应该始终通过可信的第一方来源验证所创建内容的准确性. 用户对AI工具产生的内容、代码、图像和其他媒体负责. 他们应该警惕潜在的“幻觉”.g.(引用不存在的出版物或材料)或错误信息.
  • 代码开发: 生成式人工智能可以帮助软件开发人员编写代码. 然而, 使用人工智能处理计算机代码时应谨慎,因为生成的代码可能不准确, 缺乏安全防范措施, 并可能破坏软件系统. 所有的代码都应该被审查,最好是由多人审查.
  • 机构数据:可接受的使用机构数据治理 管理新大机构数据的政策. 这些政策禁止将机构数据上传到非新加坡管理大学认可的人工智能产品中. 此外,人工智能用户应该非常小心地将哪些数据上传到产品中.
  • 业务流程: AI为业务流程改进和流程自动化提供了许多潜在的好处和效率. 工具, 流程, 应当审查产出,以确定机构数据的可靠性, 精度, 一致性, 和隐私.

警告:

生成AI使用中的AI幻觉

当使用生成AI时, 对被称为“人工智能幻觉”的现象保持警惕至关重要.“这指的是人工智能产生虚假或误导性信息的情况, 即使在训练有素的模型中也可能发生这种情况. 为了降低这种风险:

  • 验证协议: 在使用人工智能生成的数据之前,始终与可信来源交叉验证.
  • 意识和培训: 教育用户关于人工智能幻觉的迹象, 授权他们识别和质疑不合理的产出.
  • 限制关键任务的使用: 在高风险的情况下,避免完全依赖人工智能进行决策,因为错误的信息可能会导致严重的后果.
  • 迭代回顾: 实施涉及人工智能输出和人工监督的多阶段审查流程,以确保准确性和可靠性.

这种谨慎对于维护使用人工智能工具的学术工作的完整性和可靠性是不可或缺的.

建议做和不要做

以下是在考虑生成人工智能工具和大学业务订阅时应该做和不应该做的事情.

  • DO 配合对新的人工智能工具和未经OIT批准的现有工具进行风险审查.
  • DO 定期审查和遵守人工智能指导和关键数据政策(例如.e., 信息安全数据治理).
  • DO 确保供应商合同条款符合安全和负责任的人工智能治理.
  • DO 立即向OIT报告任何潜在的数据事故或泄露.
  • 将任何敏感、受保护、受监管或机密数据输入AI工具.
  • 假设公共数据没有知识产权.
  • 购买或订阅人工智能工具 已由石油情报处全面审查.

生成的人工智能 & 相关新闻

    阅读更多