但是,我们明显与这些普遍的设备接触能力的吸引力和诱惑有更具挑战性的一面?
对普遍的听力设备和隐私问题有什么影响?我们应该在语音认可和AI平台提供商处划平的道德考虑因素是什么?如果家庭助理“听到”剧烈斗争 - 如果被召唤?如果它“听到”秋天或痛苦中某人的声音怎么办 - 应该提醒医疗提供者吗?我们是否“谈论”不同的听力设备 - 如果我们确实对他们说话的话会对其他通信领域转移到其他新模式是否有不同的方式?学会讲机器让我们也互相说话吗?
我们有信心,即使我们制定了伦理,程序和隐私控制,这意味着我们可以对与我们沟通的普遍听力设备感到舒适,所以等式的人体将被视为作为机器的规则遵守我们甚至可以继续理解我们正在制造的交流,或者机器正在互相制作?Microsoft, Google and Facebook have all been experimenting with AI-generated communication and voice interaction – with results ranging from the obscene, hate-crime-referencing abuse taught to Microsoft’s AI avatar TAY by exposure to the Twitter-sphere, to the more benign but ultimately endless-loop ramblings of Vladimir and Estragon, the Google Home chatbots (not the Beckett characters), and the development by Facebook’s negotiation AIs of their own language, evolved from written English but ultimately indecipherable to their programmers.
启用AI的处理平台的语音用户界面(VUI)表示未识别的编程命令的抽象程度。它甚至没有觉得这是你正在参与的电脑。这就是让Vui-ai非常难以访问的是,即使是那些可能纠纷争夺技术的人也是如此。这是一种抗拒数字鸿沟的肯定方式,但我们有可能最终使用高度先进的技术来实现一座大型缺乏经验的消费基础,并通过一直在降低的要求实际学习机器级规划语言。