如何避免AI模型出现偏见
如今,人工智能(AI)的偏见备受争议。从不恰当地标记人脸的图像分类器到雇用在甄选应聘者时歧视女性的机器人,人工智能似乎在继承自动复制的人类最坏习惯。 风险在于我们将使用AI来创建一支种族主义,性别歧视,口臭的机器人大军,然后它们会再次困扰我们。这是一个道德困境。如果AI天生就有偏见,依靠它会不会很危险?我们最终会塑造最糟糕的未来吗? 机器就是机器。让我首先阐明一件事:AI只是一台机器。我们可能将其拟人化,但它仍然是一台机器。这个过程与我们和孩子们在湖边玩石头的过程并没有什么不同,突然之间,无聊的磨石变成了可爱的宠物石。 即使与您的孩子一起玩耍,我们通常也不会忘记,无论多么可爱的宠物石头仍然只是一块石头。我们应该对AI做同样的事情:无论人类如何喜欢它的对话或外观,我们都不应忘记它仍然只是一台机器。 要继续阅读本文,请立即注册 免费访问 紧贴InfoWorld的新闻通讯,以了解软件开发人员,分析师,数据库程序员和数据科学家的情况。 从我们仅限会员的内幕文章中获取专家见解。
Yorumlar
Yorum Gönder