欢迎光临
我们一直在努力

谷歌公布AI七项原则

谷歌 6月8日,谷歌首席执行官桑达皮采发表了一篇题为《AI at Google: our principles》的文章,列出了七条指导原则,并解释了谷歌在开发和使用人工智能方面将采取的措施。 Pichai清楚地列出了谷歌“它不会追求的人工智能应用”,包括可能造成伤害的技术,主要目的是人身伤害的武器或其他技术,收集或使用违反国际公约的信息的技术,以及违反人类的行为权利和国际法。技术。 Pichai在文章中写道:“这些不是理论概念,而是具体标准,将积极引导我们的研究和产品开发,并将影响我们的业务决策。” Pichai还表示,这些原则是Google和人工智能未来发展的正确基础。这种方法与2004年谷歌成立之初“创始人的信”中提出的价值观一致。以下是文章的全文:Google的AI:我们的原则Sundar Pichai,首席执行官的精髓GoogleAI是一种可以学习和适应不同情况的计算机编程技术。它并没有解决所有问题,但它具有改善我们生活的巨大潜力。在谷歌,我们使用人工智能技术使产品更加实用 – ——例如,删除垃圾邮件,使撰写电子邮件更容易;创建自然与您沟通的数字助理;和专辑可以为您过滤掉有趣的照片。除了我们自己的产品,我们还使用AI来帮助人们解决眼前的问题。两名高中生制作了人工智能驱动传感器,以预测森林和草原火灾的风险。牧民正在使用人工智能来监测他们的牛群的健康状况。医生们已经开始使用人工智能来帮助诊断癌症和预防失明。这些福祉是谷歌在人工智能技术开发方面投入巨资并通过开发工具和开源代码使这项技术得到更广泛应用的原因。
我们认识到这种强大的技术也引发了关于如何使用它的重要问题。如何开发和应用人工智能技术将在未来对社会产生重大影响。作为人工智能技术的领导者之一,我们深感负责,必须正确处理。所以今天,我们宣布了指导我们未来工作的七项原则。这些原则不是概念,而是具体标准,将积极管理我们的研究和产品开发工作并影响我们的业务决策。我们认识到这个领域正在迅速发展和变化。我们将谦虚并承诺与公司内外的各方进行沟通。我们愿意根据我们的经验调整我们的工作方法。 AI应用目标在评估AI应用程序时,我们将考虑以下目标。我们认为人工智能应该:1。新技术的应用将不断扩大并逐渐影响整个社会。人工智能的进步将对医疗保健,安全,能源,交通,制造和娱乐等许多领域产生变革性影响。当我们考虑潜在人工智能技术的开发和应用时,我们将考虑广泛的社会经济因素,并且当潜在收益远远大于可见风险和负面影响时,我们将实施它。 AI还增强了我们理解大量内容含义的能力。我们将努力通过使用AI提供高质量,准确的信息,同时继续尊重我们经营所在国家的文化,社会和法律规范。我们还将仔细评估何时以非商业方式提供我们的技术。 2.避免制造或加强不公平的偏见AI的算法和数据集可以反映,增强或潜在地减少不公平的偏见。我们认识到公平与不公正偏见之间的区别并不总是那么简单,不同的文化和社会背景会有所不同。我们将努力避免对人们的不公平影响,特别是与种族,民族,性别,国籍,收入,性取向,身体残疾以及政治或宗教信仰等敏感特征有关的影响。 3。
建筑和安全测试我们将继续开发和应用强大的安全和保障措施,以避免意外后果。我们将设计人工智能系统是适度谨慎的,并将根据人工智能安全研究领域的最佳实践进行开发。在适当的情况下,我们将在受控和受控的环境中测试AI技术,并在部署后监控其操作。 4.对人员负责我们将为人工智能系统设计并提供适当的机会,以提供相关的解释和要求。我们的人工智能技术将由合适的人员引导和控制。 5.结合隐私设计原则我们将隐私原则纳入AI技术的开发和使用。我们将提供通知和许可的机会,鼓励受隐私保护的体系结构,并提供适当的透明度和对数据使用的控制。 6.坚持科学卓越,高标准的科技创新植根于科学研究方法,致力于开放探究,理性严谨,诚信合作。人工智能工具有可能在生物学,化学,医学和环境科学等关键研究领域开辟新的科学研究和知识领域。我们致力于在推进人工智能开发方面坚持高标准的科学卓越。我们将与广泛的利益相关者一起,以科学严谨和多学科的方法,加强我们在这一领域的深思熟虑的领导力。我们还将通过出版教材,最佳实践和研究来分享我们的AI知识,使更多人能够开发实用的AI应用程序。 7.根据这些原则使用许多技术有多种用途。我们将尽最大努力限制可能有害的应用程序或滥用。
当我们开发和部署AI技术时,我们将考虑以下因素来评估该技术的可能用途:主要目的和用途:技术和应用的主要目的和可能的用途,包括该计划的相关性和适用性。有害用途。性本质和独特性:我们提供的技术是独一无二的还是具有更广泛的可用性:这项技术的使用是否会对Google参与的性质产生重大影响:我们提供通用工具,为客户集成工具或开发定制解决方案我们不会基于上述原则实施AI应用程序,我们不会在以下方面设计和部署AI:一种导致或可能导致整体危害的技术。如果存在很大的伤害风险,我们只有在确认其利益远大于风险并纳入适当的安全限制时才会推进。 2.主要目的或应用是导致或直接导致人身伤害的武器或其他技术。 3.收集或使用违反国际公认标准的监测信息的技术。 4.其目的与公认的国际法和人权原则相悖的技术。我们想向你们表明,虽然我们不会为武器开发人工智能,但我们仍将在许多其他领域与政府和军方合作。包括网络安全,培训,军事招聘,退伍军人医疗保健以及搜救。这些合作非常重要,我们将积极寻求更多途径加强与这些机构的合作,以确保军人和平民的安全。长期人工智能这就是我们做AI的方式。我们也知道这个主题有很多不同的声音。随着人工智能技术的进步,我们将与广泛的利益相关方合作,以科学严谨和多学科的方法提升该领域的深思熟虑的领导力。我们将继续分享我们改进人工智能技术和实践的知识。我们相信这些原则是我们公司和AI未来发展的正确基础。这种方法与2004年原创始人公开信中公布的价值观一致。
在信中我们清楚地表明,我们希望有一个长远的视角,即使这意味着我们将在短期内放弃。这是我们当时的承诺,今天是我们的信念。

未经允许不得转载:美国主机评论博客 » 谷歌公布AI七项原则

分享到:更多 ()