假如你能辨认这些图像中的内容 那声名你比AI更智慧
连年来,计较机视觉有了很大的改造,但它如故可以或许造成严峻的错误。因此,有一整个研究规模致力于研究人工智能常常被误识此外图片,称为“反抗性图像”。将它们视为计较机的视觉幻象。当你看到一棵树上的猫时,AI会看到一只松鼠。 很是必要研究这些图像。因为我们将呆板视觉体系置于AI安详摄像头和自动驾驶汽车等新技能的焦点,我们信托计较机以与我们沟通的方法看天下。反抗性图像证明他们没有。 反抗性图像操作呆板进修体系中的瑕玷 可是,固然这个规模的许多留意力都齐集在专门计划用来愚弄AI的图片上(就像谷歌的算法错误用于枪的3D打印龟),但这些紊乱的视觉结果天然也会产生。假若有的话,这类图像更令人忧虑,由于它表白视觉体系可以发生非受迫性错误。 为了证明这一点,来自加州大学伯克利分校,华盛顿大学和芝加哥大学的一组研究职员建设了约莫7,500个“自然反抗性实例”的数据集。他们按照这些数据测试了很多呆板视觉体系,并发明它们的精确率降落了90%,软件在某些环境下只能辨认出2%或3%的图像。 您可以在下面的图库中看到这些“天然反抗性示例”的样子: 在一篇随附的论文中,研究职员称这些数据有望辅佐作育更强盛的视觉体系。他们表明说,这些图像操作了“深层缺陷”,这些缺陷源于该软件“太过依靠颜色,纹理和配景线索”来辨认它所看到的对象。 譬喻,在下面的图像中,AI错误地将左侧的图片作为钉子,也许是由于木制配景。在右边的图像中,它们专注于蜂鸟豢养器,但却错过了没有真正的蜂鸟存在的究竟。 在下面的蜻蜓的四个图像中,AI在颜色和纹理长举办着色,从左到右看到臭鼬,香蕉,海狮和手套。在每种环境下,你都可以看出为什么会失足误,但这并不会让它变得不那么明明。 AI体系犯这些错误并不是消息。多年来,研究职员一向告诫说,行使深度进修(一种呆板进修的气魄沤背同认真人工智能最近的很多盼望)建设的视觉体系是“浮浅的”和“懦弱的” - 这意味着他们不会领略具有沟通渺小不同的天下作为一小我私人的机动性。 这些体系在成千上万的示例图像长举办了实习,以便相识事物的样子,但我们凡是不知道图片AI中的哪些确切元素用于做出判定。 一些研究表白,思量到整体外形和内容,算法不是从整体上看图像,而是专注于特定的纹理和细节。这个数据齐集提供的功效好像支持这种表明,譬喻,在豁亮的外貌上表现清楚阴影的图片被错误地标识为日..人工智能根基上穷乏树木。 但这是否意味着这些呆板视觉体系无法挽回?一点也不。凡是,所犯的错误很是微不敷道,譬喻将排水盖辨认为沙井或将货车误以为豪华轿车。 固然研究职员嗣魅这些“天然反抗性的例子”会愚弄各类百般的视觉体系,但这并不料味着他们会诱骗全部人。很多呆板视觉体系很是专业,譬喻用于辨认医学扫描中的疾病的那些。固然它们有本身的弱点,但它们无法领略天下和人类并不能阻止它们发明癌症。 呆板视觉偶然也许会很快并且很脏,但凡是会发生功效。像这样的研究向我们展示了我们接下来必要弥补的盲点。 (编辑:湖南网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |