科技芯资讯是专业科技新媒体网站。网站著眼于新一代科技新闻的全面及时处理报导,让网民在外面第二时间交待全球新一代的科技资讯。内容涵括AI+、互联网、IT、创业投资、核定、区块链、智能硬件等领域

首页 >  科技资讯大全 正文

星环科技可信AI前沿成果重磅亮相2022世界人工智能大会

juzi 1970-01-01 08:00:00 科技资讯大全 0℃

近年来,随着人工智能技术的大规模产业落地,发展“可信AI”已成为全球共识,也是未来人工智能健康发展的必经之路。9月1日-9月3日,2022年世界人工智能大会(WAIC)期间,可信AI问题也引起了业界的关注。作为人工智能领域的代表公司,Sterling Technology在可信AI领域进行了大量探索。在本次世界人工智能大会上,Sterling Technology不仅分享了围绕可信AI和行业大咖啡的观点,还带来了可信AI的成果。9月1日下午,在由中国信息通信研究院与京东探索研究院联合主办的WAIC2022可信AI论坛上,Starring Technology首席隐私计算科学家Ii、中国信息通信研究院华东地区人工智能与大数据事业部主任陈俊亚、京东探索研究院算法科学家兼可信AI 主任何凤翔等,阿里集团机器智能部总经理兼阿里安全日研究所主任王伟强、中国科技大学电子工程与信息科学系副教授田欣梅就“构建可信人工智能产业生态”进行了深入圆桌讨论。

9月3日下午,在由中国信息通信研究院云计算与大数据研究院、蚂蚁集团、机器之心主办的WAIC2022可信隐私计算高峰论坛上,星环科技高级研究员夏正勋和唐建飞研究员发表了一篇题为《可信AI治理框架的探索与实践》的论文。深入介绍了端到端T-DACM可信AI治理框架,其核心是“数据可信、算法可信、计算可信、管理可信”。可信AI的未来是广阔的,在整个数据生命周期中信任AI是未来的趋势。

关于如何开放合作,构建多元化、可信赖的AI产业生态系统,易先生表示,在构建可信赖的AI产业生态系统的实践中,一是针对不同行业问题形成跨学科、专业化、可信赖的AI解决方案。其次,我们需要技术突破,为评估和量化人工智能结果提供有用的工具,例如降低Sharpley值的计算复杂性,并开发有用的可视化工具。第三,我们需要信任数据--人工智能模型--整个业务之间的联系。

同时,他表示,可信AI或解决AI的信任问题是AI规模应用的前提,可信AI在整个企业应用中具有重要的价值和前景。从技术的角度来看,技术的升级将带来行业的升级。Starring Technology还根据市场需求开发了XAI可解释性和隐私计算、MLOps模型的维护和维护组件,并基于软件将模型应用到实际的生产过程中,使客户了解和信任模型,从而使企业受益。可信人工智能的未来发展趋势是从模型驱动向数据驱动转变,从数据采集、数据传输、存储、治理、建模和应用的全生命周期实现AI可信度。在治理方面,首先是在可靠的人工智能实践经验的基础上形成行业规范和标准,然后在全国推广,甚至在全球达成共识。“数据、算法、计算、管理”:T-DACM的端到端可信人工智能治理框架

为了实现数据-人工智能模型-服务全链接的可靠性,Starring Technology从技术和管理两个方面提出了通用的可靠性人工智能治理框架T-DACM (Trusted Data & Algorithm & Computation & Management)T-DACM可信AI治理框架包括可信数据、可信算法、可信计算和可信管理四个层面,涵盖数据安全、模型安全、隐私保护、风险管理、流程管理、可解释性、公平伦理、追溯责任等人工智能热点问题的解决方案。它为企业和监管机构提供可行的、值得信赖的人工智能解决方案。

T-DACM可信AI治理框架从下到上分为四层,分别是可信数据层、可信算法层、可信计算层和可信管理层,其中:可信数据层为可信AI提供数据基础。具体包括异常数据检测、偏置消除、偏置消除、数据强化等组件,检测异常样本以保证模型正常运行;处理异常和异质数据;引入公平算法消除数据中的歧视和偏置;通过样本转换或样本生成来放大数据集。它可以增强模型的鲁棒性。可信算法层为可信AI提供了安全性和鲁棒性的核心功能。除现有算法外,它还包括因果算法、公平算法、模型增强等算法组件,从数据中发现稳定的特征,提高模型对不同环境的适应性,消除模型决策逻辑对弱势群体的歧视,提高模型抵御常见攻击的能力。可信计算层为可信AI提供可信计算能力。具体而言,包括加密算法、可信计算、计算调度等模块,以及加密算法和TPCM(Trusted Platform Control Module)使用可信平台控制模块,确保单方面计算场景中的数据安全,包括联合学习、联合计算和多方安全计算它使用(安全多方计算,MPC)等组件来提供数据安全和隐私保护,例如多方参与模型训练,模型推理和计算。Trusted Management为Trusted AI提供了可追踪、可监管和可理解的管理能力。具体而言,它包括追溯问责、公平性道德检查和可解释性三个组成部分,以确定事故发生后的追溯责任,分析系统的实时行为以监测违反监管道德的情况,解释模型的决策逻辑,为模型优化提供参考。T-DACM Trusted AI治理框架涵盖了从模型学习到模型应用到系统管理的整个AI流程。可信数据层使用Relabelling算法消除对数据集中弱势群体的偏见,而可信算法层使用规则化来增强定价算法的公平性。可信计算层使用联邦学习计算框架在隐私保护的前提下对第三方银行数据进行协同建模,使价格结果更加准确可靠,可信管理层可以跟踪和解释具体的定价决策过程。此外,该系统还可以实时检测整个定价系统在运行过程中是否违反了法律和道德规则。T-DACM Trusted AI治理框架内各层之间的无缝协作确保了整个AI系统流程的可靠性。T-DACM可信AI治理框架可以提高模型准确性,解决模型黑盒问题。例如,在银行的信用系统中,通过垂直联合学习组件,使用第三方风控数据进行协同建模,从数据优化维度将模型准确率提高到99.2%。对于客户资源流失问题,我们利用秘密收集的沟通功能,实现了与第三方社交媒体用户资源的匹配,找到了失去的客户,并进行了推广,最终将失去用户率降低到0.4%。对于模型黑盒问题,通过引入模型可解释模块,解决了客户评价差异无法解释的问题。Starring科技提出的T-DACM可信AI治理框架,结合了数据、算法、计算、管理四个维度的可信方式,提供端到端可信AI解决方案,率先在业内实践和落地。但值得信赖的AI还有很长的路要走,目前模型的黑盒子还没有完全解开,完全的可信度还没有达到,相信随着人们不断深入AI研究,提出新的方法和技术,可信的AI框架将越来越完善。

Tags: 模型 算法 计算 数据 可信