云AI就像核电



在最近的一次演讲中,谷歌和Alphabet首席执行官Sundar Pichai呼吁在AI领域制定新法规,重点显然是AI已被云计算商品化。鉴于我们正在辩论围绕AI技术使用的道德问题,这不足为奇:最重要的是,AI对于企业和不良参与者而言,如何轻松地为计算武器化。 Pichai强调了诸如面部识别和“深造假”之类的技术带来的危险,在这种技术中,使用人工神经网络将一个人的现有图像或视频替换为其他人的肖像。他还强调,任何立法都必须在“潜在危害……与社会机会”之间取得平衡。 今天的AI比几年前强大得多。人工智能曾经存在于超级计算机领域,需要花费大量的预算才能使用。云计算使AI成为按需服务,即使小型企业也可以负担得起。此外,人工智能服务的研发支出也出现了巨大的增长。人工智能提供商在创新以及可提供的众多功能方面都在争夺顶级。这包括易于构建和训练的知识模型,并且可以轻松地与新的和现有的应用程序集成。 我可以比喻为AI就像核电。两者都有潜力需要被抓住。两者都需要限制以确保它们不会被滥用。核能提供廉价的碳轻电,人工智能有潜力为我们提供无人驾驶汽车,并挽救医疗保健行业数十万人的生命。都不需要监管吗? 大多数技术都有可能被使用,无论其好坏。人工智能和核电无疑属于这一类。人工智能的风险在于,某些组织出于完全合理的原因可能会利用它,但最终会在道德上进行可疑的事情。 例如,零售商店中的面部识别可以建立图像和个人信息的数据库,并将其出售给营销公司。安全摄像头始终存在是一回事,而当安全摄像头可以发现您的身份,婚姻状况,性行为,人口统计信息以及其他可通过AI驱动的大数据分析收集的信息时,则是另一回事。 意料之外的后果定律在这里确实很危急。如果法规在全球范围内被创建和采用,但并未在全球范围内实施,则它们在限制AI滥用方面几乎没有效果。公有云是国际性的。如果某个国家/地区使用某种形式的AI是违法的,则很容易转移到另一个地区。我们已经通过数据处理安全性做到了这一点。 AI处理不会有任何不同。

Yorumlar

Bu blogdaki popüler yayınlar

只需50美元即可训练成为一名熟练的Python编码器

DataStax 使 Astra 流媒体服务普遍可用

TypeScript 4.1 Beta带来了模板文字类型