当科技达到一定的高度能合成某人吗?

翻译:DeepL翻译 + 禄存天玑后期润色

译者注:仅对原文进行翻译搬运,旨在拓宽大众视野,不代表译者立场。以下的“deepfake”一律使用“深度伪造”作为译名。

深度伪造比以往任何时候都要强大而普遍。依赖于逼真的图像与完美合成的人类语音,这些复杂的后期编辑的视频被人工智能软件生成出来了。

即使是迪士尼也在投资深度学习驱动的技术。在2020年初发表的一篇论文中,来自迪士尼研究工作室的科学家们声称,他们已经成功地训练了一种算法,来以前所未有的高分辨率质量在图像和视频中呈现照片般逼真的换脸。论文作者写道,这家娱乐巨头希望在需要将演员描绘得更年轻,无法使用演员使用这种特效,其他一些场合使用这项特效。

在网飞(Netflix)最近的影片《爱尔兰人》(The Irishman)中,罗伯特·德尼罗(Robert De Niro)在倒叙片段中被“返老还童”了。(来源:卢卡斯影业有限公司)

但即使在这种技术成为主流的时候,围绕着它的使用仍有未解决的忧虑。从网络上开始出现模仿、政治讽刺和假名人色情视频的那一刻起,人们就对深度伪造喜忧参半。据人工智能公司 Deeptrace Labs 去年发布的一份报告估计,目前大约有4.9万个深度伪造在流传,但社交平台上的换脸滤镜和由面部识别引擎驱动的应用程序的快速增长意味着可能还有成千上万个。

艺术家和记者最近一直在探索如何建设性地利用该技术来创造社会和政治评论,或保护边缘化和高危群体的隐私。例如,获得奥斯卡奖提名的纪录片制作人大卫·法兰西(David France)在上周于HBO上映的启示性影片《欢迎来到车臣》(Welcome to Chechneya)中,利用深层伪造技术掩盖了车臣同性恋者的身份。该技术甚至被一位星战超级粉丝用来“修饰",以改善《星球大战:侠盗一号》中年轻的莱娅公主的客串。

但即便是个人和迪士尼这样的大型媒体公司将这项技术用于非恶意的目的,深层造假技术也正在引发关于假新闻、个人隐私和视频证据权重的激烈辩论。

Youtube 上“derpfake”频道的建立者使用深度伪造技术来改善《星球大战:侠盗一号》中年轻的凯丽·费雪(Carrie Fisher)的外貌。建立者告诉卫报(The Guardian,英国著名日报),这个在上映几天就被观看了成千上万遍的工程,被在“用来看一季《辛普森》的时间里”做完了。(《辛普森》,即《辛普森一家》,The Simpsons,美国著名动画片,一季约20集,每集约20分钟)

1月,可能是为了在2020年大选前将问题解决在萌芽状态,Facebook 宣布将禁止扭曲现实或误导公众的操纵媒体。

这包括“在调整清晰度或质量之外进行编辑或合成的视频,其方式对普通人来说并不明显,很可能会误导别人认为视频主角说了他们实际上没有说过的话,”Facebook 全球政策管理副总裁 Monika Bickert 在一篇博客文章中写道。她补充说,音频或视频,无论是否深度伪造,也会受到Facebook的社区标准管理。如果包含裸露、图形暴力、压制选民或仇恨言论,就会被删除。

这个标准也适用于广告,不过《纽约时报》的报道指出,这一政策不会追溯标准制定以前的视频。

在全州范围内,加州已经先发制人地禁止在选举后60天内传播模仿真实镜头、故意伪造政治候选人言行的“恶意”操纵的视频、音频和图片。针对一段被篡改的南希·佩洛西(Nancy Pelosi)的,使美国众议院议长看起来像喝醉了酒的视频,提出该法案的议员马克-伯曼(Marc Berman)称深度伪造是“一种强大而危险的新技术,可以作为武器,在已经过度党派化的选民中播撒错误信息和不和。”

华盛顿邮报对南希·佩洛西被操纵的视频进行分析。该视频被放慢了速度,使她看起来口齿不清。(来源:华盛顿邮报)

去年,美国参议院通过了“深层假消息报告法”,要求国土安全部每年对深层假消息和任何试图“破坏民主”的人工智能驱动的媒体进行研究。

纽约大学法学兼职教授保罗·巴雷特(Paul Barrett)告诉NPR的“巨魔观察"(Troll Watch),虚假信息越来越多地针对图像,而不是文字。“任何具有基本编码知识和“渴望在选举中捣乱的人都可以开始拼凑这些非常令人信服但虚假的视频,”巴雷特说。“而这些公司也意识到了这一点,并且正在争先恐后地,试图对此做出也许迟到的回应。”

现在知道立法能否成为阻止深层网络假货流传或病毒式传播的有效策略还为时过早,特别是考虑到搜索引擎无法进入深层网络的许多角落。另一个挑战是,这种法案可能会限制言论自由。因此,一些专家正在转向另一种遏制深度伪造浪潮的策略:以技术对抗技术。

在识别深度伪造方面,技术专家和初创公司正在迎头赶上。然而,一些人正在投资开发面向未来的方法,以防范深度伪造的黑暗面。

6月,Facebook 公布了一项深度伪造检测挑战赛的结果,该挑战赛汇集了2000多名技术专家和人工智能研究人员,以创建和测试算法来检测Facebook制作的操纵视频。

在对 Facebook 的测试数据集进行测试时,表现最好的模型达到了 82.56% 的精度,但在对包含真实世界视频的“黑箱”数据集(这些视频通常是之前看不到的,而且更加复杂)进行测试时,准确率只有 65.18%。黑箱算法仍然是机器学习检测技术面临的最大挑战之一。

利用视频和技术策略揭露腐败和援助人权活动的国际非营利组织 Witness 一直在游说对媒体取证进行更好的投资,并称美国DARPA的MediFor计划是一个有希望的一步。

华盛顿特区的智库布鲁金斯研究所(The Brookings Institute)正在敦促政策制定者建立一个 "额外的资金流,用于开发新的工具,如反向视频搜索或基于区块链的验证系统,这些工具可能更好地坚持面对无法检测的深层伪造。" 该研究所还鼓励政策制定者投资培训记者和事实核查员,并支持与基于人工智能的检测公司合作。

Deeptrace Labs 就是这样一家检测公司。这是一家利用深度学习和计算机视觉来检测和监控深层伪造的初创公司,它将自己宣传为对抗基于人工智能的病毒式合成视频的 “杀毒软件”——这不失为深层技术前沿的智慧之战的证明。

Deeptrace 正在开发分析检测假视频的后端系统。它可用于个人用户和媒体公司,帮助他们识别伪造。“这句标语很好地概括了我们如何看待这个问题的一些表现方式,以及我们如何看待预防这个问题的潜在技术解决方案。”Deeptrace实验室的传播和研究分析主管Henry Ajder说。

Reality Defender 是另一款智能软件。它在你浏览网页时与你并肩作战,检测潜在的虚假媒体并提醒用户注意它的存在。

科学家们也是这场战斗的一部分。加利福尼亚大学河滨分校电气和计算机工程教授、智能系统研究中心主任 Amit Roy-Chowdhury 开发了一种深度神经网络架构,可以识别被篡改的图像,并以前所未有的精度识别伪造品。

Roy-Chowdhury 的系统可以通过检测物体周围边界每一个像素的质量,来分辨出被篡改的图像和未篡改的图像。如果图像被篡改或修改,这些边界可能会被“污染”,因此可以帮助研究人员精确地确定任何医生的位置。

虽然他的系统适用于静态图像,但理论上,同样的原理——经过一些调整——可以应用于由数千帧和图像组成的深层伪造视频。

但是,尽管做出了扎实的努力,大多数研究人员都认为,在外部环境检测深度伪造的过程是一个完全不同的比赛。另外,大体上,这些实验性的检测技术只掌握在专家手中,一般人无法接触到。

“随着我们的技术越来越好,打击深层假货将变得越来越困难,”麻省理工学院计算机科学副教授 Aleksander Madry 说,他的研究解决了计算和开发值得信赖的人工智能的关键算法挑战。“所以目前这更像是一场猫捉老鼠的游戏,人们可以尝试通过识别一些假象来检测它们,但随后对手可以改进他们的方法来避免这些假象。”

“更好的方法可能会欺骗检测机制,” Roy-Chowdhury 同意。这位计算机科学家说:“我们极不可能有一个系统能够检测到每一个深层伪造的东西。通常情况下,安全系统是由链条中最薄弱的环节来定义的。”

根据麻省理工学院计算机科学与人工智能实验室教授尼克-罗伊的说法,科学家们经常在黑暗中工作。Roy说:“在很多情况下,科学家不知道神经网络在做什么。”他对人工智能、机器学习和计算系统的研究主要集中在不确定性导致的问题上。

科学家“不能总是在出错的时候进行解释。神经网络不是黑魔法。我们确实了解很多基础知识,但我们没有掌握极限的……我们需要了解极限是什么,”他解释说。

随着基于深度学习技术的能力不断发展,Madry 说:“我担心的是,我们将不再能够自动依赖视频作为证明。”

对于生成较差的深层伪造视频——那种通常由粗制滥造的编辑导致的明显皱纹——智能软件和知情的眼睛很容易发现篡改。但是,随着合成视听媒体开发者对这些问题的解决,发现伪造的迹象将变得更加困难。

前些年,研究人员通过监测眨眼频率来训练软件发现深层伪造。人类平均每分钟眨眼17次,但旧的深度伪造视频的眨眼频率往往远低于此。“如果你看的是2018年1月的视频,缺乏眨眼的情况很可能还适用于那里,”阿杰德说。“但比如说在接下来的一年,或两年,或五年,就无法依赖这一点进行衡量。”

同样,随着深度伪造的发展,依靠训练人工智能的,针对对编辑错误(如移帧和灯光或肤色的变化)的检测工具可能很快就会过时。

阿杰德说,他有信心,他所说的一些假媒体的“民间检测”方法,绝大部分“几乎肯定会被训练出高级版本。只有在谨慎应用并结合分析方法的情况下,它们才会有用。”

另一个问题是社交媒体平台所使用的分享技术,它可以让深层假货在不被发现的情况下倍增。

例如,德雷克塞尔大学助理教授马修·斯塔姆(Matthew Stamm)去年在西南偏南会议上表示,一些检测技术会寻找“非常微小的数字签名”,这些签名被嵌入到视频文件中。但当视频文件被分享到社交媒体上时,它被缩小和压缩,这就消除了所有被篡改的迹象。

“有很多图像和视频认证技术存在,但有一处他们都失败了,就是在社交媒体上,” 斯塔姆说。

同时,纽约大学法律系的巴雷特力劝人们“高度怀疑对他们所见”,并表示公司应该对虚假信息采取积极行动,或许可以“降级”这些帖子或视频。“我认为,他们应该完全从他们的网站上删除这种材料,”他补充道。

最终,将需要新形式的集体行动来打击篡改视频的负面影响,特别是如果它们被用来制造虚假新闻,意图误导。这个问题已经很普遍,无法单独解决。人工智能公司、媒体监督机构、政府和个人必须分担责任,对事实进行核查,并决定什么是真相,什么不是。

}

【卷首语】建立AI规则非常重要 但充分对话更重要

   2016年,谷歌CEO Sundar Pichai宣布谷歌战略从Mobile First(移动优先)转向AI First(人工智能优先),在此之后,谷歌不仅在AI领域持续投入,更把谷歌云的主要竞争优势押注在AI领域。

  但在2018年,谷歌的AI First战略受到了极大的打击:9月,谷歌首席AI科学家同时也是谷歌云AI负责人李飞飞宣布离开谷歌;11月,李飞飞的得意门生,谷歌AI中国中心总裁李佳宣布去职谷歌;与此同时,谷歌云Diane Greene宣布将于2019年1月离开,接替她的是拥有丰富商业化经验的甲骨文前高管Thomas Kurian。

  更令人感到意外的是,谷歌CEO Sundar Pichai在12月中旬接受媒体采访时公开表示:对人工智能技术被滥用的担忧是“非常合理的”,还特别强调:“我认为科技公司必须意识到不能先创造人工智能工具,然后再去完善它,我认为这样是行不通的。”虽然Sundar Pichai在采访时还补充说:“应该相信科技行业能够负责任地规范好该技术的使用。”但他的这一番发言,还是在美国科技界引起了不小的波澜。

  承认AI构成的潜在威胁,这是非常关键的一个举动。这位出生于印度的工程师极为推崇自动化系统的世界形态,他甚至表示这些系统可以在没有人为控制的情况下学习和做出决策。

 人们不禁要问:谷歌要改变AI First战略了?谷歌云的AI战略在今年一系列的有关AI伦理道德讨论后,终于要向强监管和商业利益(特别是美国国防部的商业合作)妥协了?

  现在来看,下这样的结论还为时尚早:首先,从微软、谷歌与美国国防部的合作,到诸多“反人格AI”的社会测试,这一轮AI浪潮有关AI伦理道德的讨论在2018年进入了最高峰,也促使谷歌等科技巨头更加深入地反思AI法律监管、伦理道德等方面的问题;

  其次,随着AI技术的普及,越来越多的居心叵测者开始利用AI满足私欲,对社会安全、网络安全、数据安全、个人隐私都造成了一定的挑战,强化对AI技术在伦理道德方面的监管未必是一件坏事。

   最后,Sundar Pichai对AI监管持开放态度与AI目前的发展情况也有着一定关系:在技术发展初期,对技术进行监管是十分困难的,但随着技术逐渐成熟,建立一套规则变得相对简单,特别是在技术公司与监管部门不断加大对话的前提下。

1、“服务器间谍芯片”事件公布最新调查结果

  【新闻摘要】 据路透社报道,由前美国联邦检察官 Daniel Nardello创立的外部调查公司Nardello&Co在检查了超微(SuperMicro)向苹果以及亚马逊销售的主板模板、相关产品的软件以及设计文件等资料后,并未在超微服务器产品中发现任何恶意硬件,也未发现服务器主板存在恶意网络传输行为。以此调查结果为基础,超微公司高层向其客户发送了一封公开信,再次强调超微有一套系统流程以保证产品的完整和可靠性。

  【小云评论】一般来说,硬件生产商都有一套完整的流程来确保产品的可靠、完整和安全性,以超微为例,这套流程包括在生产过程中的每一步都设置测试环节;测试过程由公司员工以及负责产品装配的供应商共同进行;为了防止被篡改,任何一个员工、团队或是供应商都无法获得所有设计要素,在重重管控之下,想要植入硬件后门或是进行数据传输而不被发现,几乎都是不可能的事情。而作为一家重要的服务器OEM供应商,超微如果是主动为之,那么几乎是死路一条,因为很多服务器客户都会在产品进入生产环境前进行严密的检查,甚至是较长一段时间的封闭测试,类似的雕虫小技很难不被发现。

2、英特尔解密全新芯片布局

  【新闻摘要】 英特尔公司近日在美国加州的Los Altos举办架构日活动,揭露未来数年的架构布局,以及未来英特尔应对市场挑战将采取的策略。在活动中,英特尔披露了包含异构计算生态布局、CPU 核心架构、GPU 核心架构、存储技术、数据中心方案等在内的多领域的进展,其中大部分最快在2019年即可面向市场实现商业化。英特尔方面表示,由于计算产业的转变,未来英特尔在架构设计上也会越来越灵活,不但核心架构本身的设计会更加实际,同时也更强调不同场景的计算适配。从产品形态来说,英特尔所提供的处理器将不止 CPU 或 GPU,而是通过引入更多计算概念构成 xPU 生态,从各种方向去解决未来计算领域会面对的各种问题。

  【小云评论】在英特尔创始人之一戈登?摩尔提出“摩尔定律(Moore’s Law)”的53年之后,英特尔的每一个竞争对手都在不断呼喊:“摩尔定律已经失效”,甚至就连英特尔都很少在公开场合再提摩尔定律,并在几年前放弃了遵循摩尔定律极为规律的“Tick-Tock”芯片发布机制。但摩尔定律即使失效,也没什么可担心的:从英特尔在此次架构日上所提出的3D封装、专用芯片等理念来看,很有可能随着半导体材料、制程工艺、封装方式的突破,结合芯片专用化的发展趋势,人类可以超越摩尔定律,创造出新的、比摩尔定律更快的芯片发展定律。

3、Chemputer:可以控制药物合成的计算机系统

  【新闻摘要】 格拉斯哥大学的研究人员在《科学》期刊发表了一篇文章,首次提出利用价格适宜的、模块化的化学机器系统来合成重要的药物分子,他们将这一系统称之为Chemputer。Chemputer 系统由不同的模块构成,包括反应模块、内部过滤模块(可加热或冷却、自动化的液-液分离模块以及溶剂蒸发模块,它利用一种新型的通用标准,来开发和共享化合物配方,其关键在于开发一个应用在化学领域的一般性概念,然后利用计算机程序实际生产化合物。

  【小云评论】Chemputer系统的关键作用,在于将化学工程转变成一种“数字工程”,实现化学数字化:通过将全过程标准化、数字化,Chemputer将帮助全球的化学家把他们的配方转变为数字化方案,进而通过在线分享实现价值最大化,正如该研究团队负责人Lee Cronin教授所说:“Chemputer有望实现复杂分子的(数字化)制备,一个简单的APP软件和Chemputer系统就能够在全球各地实现新分子的开发与制备。”换句话说,数据科技将可以为化学家们提供一个全球数字化科研协作平台,并进一步实现研究课题的全球协同。

4、人工智能创造“数字嗅觉”


  【新闻摘要】 英国拉夫堡大学、爱丁堡西部综合医院等机构的研究人员合作开发了一种基于深度学习的方法,可以分析人体呼吸中的化合物,并可用于检测癌症等疾病。该团队利用深度学习网络及癌症治疗患者的呼吸样本,训练出一个专门读取气味痕迹的 AI 系统,可以辨识呼吸中的特定化合物,例如醛类物质。此外,加拿大初创公司Startuscent正在开发化学传感器芯片,结合云上的人工智能深度学习平台,可以实时辨识并量化环境中的化学成分,目前已经在食品、烹饪设备、智能家居、健康保健等领域开始进行测试。

  【小云评论】动物甚至植物都使用嗅觉来识别空气中的数百种物质,但人类的嗅觉并不如其他动物发达,基于这项原因,人类并没有特别意识到有很多丰富的信息资讯在空中传递。现在,人工智能可以帮助人类建立高度敏感的嗅觉系统,并以此通过嗅觉来感知化学物质及背后可能隐藏的信息。不过需要注意的是,通过 AI 嗅觉来检测医疗疾病,仍须经过长时间验证,才能面向市场商业化,毕竟很多“味道”人类可能才刚刚通过人工智能“闻到”。

5、澳大利亚研究人员开发出新型金属空气晶体管

  【新闻摘要】 墨尔本皇家理工大学的研究团队近日在《Nano Letters》发表论文,宣布他们正在研究用金属和空气来代替半导体作为晶体管的主要元件,并以此为基础开发金属基场发射空气通道晶体管(ACT)。ACT器件无需半导体材料,它使用两个面内对称的金属电极(源极和漏极)隔开小于 35 纳米的气隙,底部用金属栅极调节发射场。纳米级气隙宽度小于空气中电子的平均自由路径,因此电子可以在室温下穿过空气而不会散射。研究团队的Shruti Nirantar表示,ACT有许多优点,它使得制造晶体管基本成为铺设发射器和收集器并限定气隙的单步过程。尽管 ACT 生产工艺采用标准的硅制造工艺,但由于不需要掺杂、热处理、氧化和形成硅化物等一系列步骤,生产成本大幅削减。

  【小云评论】虽然该研究团队所说的“延续摩尔定律20年”仍有待证实,但是用金属和空气来代替半导体作为晶体管确实是一个非常创新的尝试,而这也证明,芯片产业远没有到告别摩尔定律的时候,通过在制程工艺、材料、3D封装等方面的创新,不仅摩尔定律肯定可以延续,芯片也许会进入全新的高速发展阶段。不过,需要指出的是,包括ACT在内的一系列创新,很有可能并不适用于传统PC,随着未来数字设备形态的多元化,芯片也会随之多样化和专用化,比如ACT可能就更为适合可穿戴设备。

6、谷歌CEO:担忧AI做坏事很合理

据《华盛顿邮报》报道,谷歌首席执行官桑达尔·皮查伊接受采访时表示,对人工智能技术被滥用的担忧是“非常合理的”,但同时应该相信科技行业能够负责任地规范好该技术的使用。他表示,新的人工智能工具,比如无人驾驶汽车和疾病检测算法等,都要求科技公司设置道德护栏并思考什么是对该技术的滥用,“我认为科技公司必须意识到不能先创造人工智能工具,然后再去完善它,我认为这样是行不通的。”不过,桑达尔·皮查伊也强调,他对人工智能的长期益处持乐观态度。

  【小云评论】前沿科技的前景是光明的,而有关道德、伦理、善恶的话题将持续被讨论,但需要指出的是,任何技术的“道德观”,都只是其创造者和使用者道德观的再现和延伸,即使是人工智能技术也是一样。因此,对人工智能持批评态度人士对人工智能可能会被用于侵入性监控、致命武器和错误信息传播的担忧很合理,在创造人工智能技术时也确实应当考虑如何管理和确保人工智能被正确地应用,不能走“先创造,再治理”的道路,但关键是,首先要让监管者理解人工智能的价值、逻辑和含义,并将监管施于人,而非技术本身。

7、IMAX将关闭全部VR影厅

据IMAX向美国证券交易委员会(SEC)提交的文件显示,该公司决定于2019年第一季度关闭剩余的三座VR影厅,并取消对部分VR内容的投资。从2016年开始,IMAX在全球陆续开设了7座VR体验中心,其中包括位于中国上海的一座。但因为经营状况不佳,从今年6月开始,7座中心已经关了4座,其中也包括上海的这一家。这一次的关店计划将面向IMAX在全球仅存的三座VR影厅,分别位于洛杉矶、曼谷和多伦多。在这之后,IMAX将完全退出VR内容放映市场。

  【小云评论】VR硬件带给普通消费者的新鲜感已经褪去,而VR内容、VR体验方式的短板还未补齐,尽管 IMAX 投入了5000万美元扶植 VR 内容,但迄今为止只有一部《正义联盟 IMAX VR 版》在11月上映,这也就导致IMAX 的7个 VR 体验中心也成为了一项入不敷出的生意。事实上,不仅仅是IMAX,今年10月,VR 电影公司 Jaunt 宣布转向增强现实创作,微软放弃了在今年6月将 VR 带入 Xbox 的承诺,VR 相机制造商 Lytro 也在3月份关闭。在成为主流内容消费形态之前,VR还有很长的路要走,但在医疗、制造等专业领域,VR倒是因为颠覆的浸入式体验,开始有了用武之地。

据国外媒体最新报道,社交网络巨头Facebook已经承认,多达680万名用户的私人照片被泄露在本不应该看到这些照片的应用程序中。Facebook表示,这次泄露事件发生在9月12日至9月25日之间,该公司在25日发现了这个漏洞,而受影响的用户将收到通知——他们的照片可能已经被曝光。Facebook承认,这一漏洞与Facebook登录及照片API有关,后者允许开发者在自己的应用程序中访问Facebook照片,所有受影响的用户都使用Facebook账户登录了一个第三方应用程序,并允许它们查看自己的部分照片。

  【小云评论】略显讽刺的是,就在事件披露前一天,Facebook还在纽约向人们展示如何在该网站上“管理自己的隐私”,接下来就被披露因为登录及照片API的问题,导致多达680万名用户的私人照片被泄露。今年以来,Facebook已经多次被爆出用户数据泄露事故,特别是年初被曝光的“剑桥分析事件”,值得注意的是,这其中的大部分事故,都不是黑客引发的,而是源于Facebook自身的问题,特别是Facebook对开发者合作和数据共享机制松懈的监管,这足以让国内的互联网公司敲响警钟:在安全领域,内部松懈远比外部威胁更可怕,所造成的结果也更严重。

9、5 G时代对自动驾驶汽车网络安全带来挑战

  【新闻摘要】 网络安全巨头Avast公司的高级研究员Martin Hron近日在接受《安卓头条》网站的采访时表示,目前很难预测5G技术对于无人驾驶汽车领域会产生哪些直接影响,但是一旦5G技术大规模推广,无人驾驶汽车的安全状况只会变得更糟,“现在还说不准,但是极有可能的是,无人驾驶汽车更多的部件和系统借助5G网络与外部世界连接时,会增加受攻击的范围。” Martin Hron在访谈中表示,安全研究人员进行的研究、有记录的缺陷和概念验证都超过了真正的攻击案例,但是汽车制造业需要借助现有的研究保持这种安全优势,并且在技术上持续领先于黑客,同时持续加大在车辆网络安全机制方面的投入。

  【小云评论】对于无人驾驶汽车来说,无论是否处于5G时代,都应当在最初的产品设计阶段就将安全防护详细化。同时,即使今天的汽车产业正在利用像人工智能(AI)这样的前沿技术解决无人驾驶的安全问题,甚至AI将成为保障日常交通运输安全的不可分割的组成部分,AI及AI软件的安全性也未必高于传统解决方案。因此,汽车制造商们在安全领域的工作其实与以前并没有什么区别,那就是:尽一切努力,让车辆变得更安全,特别是要从车辆设计开始就考虑可能存在的安全问题。

10、甲骨文再诉美国防部

据TechCrunch报道,甲骨文公司上周向联邦法院提起诉讼,再次指控美国国防部与单个公司签订为期10年、价值100亿美元的“联合企业防御基础设施”(JEDI)合同是不公平和违法行为。今年8月份,甲骨文曾向美国政府问责局(GAO)提起类似申诉,当时其引用了同样的理由。不过,GAO上月的裁定驳回了甲骨文的诉求,称国防部的做法符合相关法律规定,因为该机构是从政府的最佳利益出发。

  【小云评论】美国政府问责局在11月驳回甲骨文诉讼时表示,美国国防部选择单一供应商的做法是符合政府最佳利益的,或者说,如果将美国国防部作为企业客户,那么选择单一供应商是符合客户利益的。美国国防部认为:“许多商业云提供商都有完善的在线市场,但促进云基础设施的快速应用能力和运营能力才是考量供应商的重要标准。”而且“雇用多家公司会更复杂,成本更高,安全性更低”,甚至会“阻碍国防部迅速提供新的能力,并影响企业级云计算提高作战人士的效率”。换句话说,美国国防部与许多企业客户一样,所需要的不仅仅是云计算基础设施,而是数字化转型的整体解决方案,这也将是未来云服务商的主要竞争领域。

}

我要回帖

更多关于 为什么科技近百年才有 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信