
人工智能解决方案应该综合设计安全机制,以确保每一步的安全性都经得起考验,确保所有相关人员的身体和心理安全。
现行产品安全立法已支持对产品使用过程中所产生的各种风险进行安全保护。可通过适当的举措,对国家责任制度进行调整,引入更明确的条款,涵盖新兴数字技术所带来的新风险,从而进一步提供法律确定性。
第一,新兴数字技术的连接能力对传统安全观念构成挑战。互连或断开连接都会引起安全威胁,进而影响到用户的安全性。现行安全法规中的产品安全性概念涵盖了对产品所面临的各种风险的保护,不仅包括机械、化学、电气风险,还包括网络风险和与设备断开连接有关的风险,此外还对影响用户安全的网络威胁制定了强制性条款,并可考虑将这方面的明确法律条款纳入欧盟相关立法,以便为用户提供明确的法律依据。
第二,人工智能解决方案自主行为具有违背生产者意图的潜力。人工智能解决方案产品和系统的自主性可能使机器做出的决定偏离了原始意图和用户的期望。一些人工智能解决方案系统在其生命周期内的自主行为需要对其安全性进行新的风险评估。另外,相关立法应对制造商规定强制性义务,要求其向使用者提供清晰的安全指示和警告。此外,从产品设计到整个人工智能产品的生命周期,都需要人工监控以保证安全性。
第三,人工智能解决方案系统中的类人(humanoid)可能会对使用者造成心理健康风险。为此,在规定生产者的义务时,可适当考虑使用者心理方面的安全风险(例如与类似机器人合作);法律框架内产品安全概念应明确涵盖精神健康风险。如果生产人工智能解决方案类人类机器人,可考虑将其产品纳入有关立法,以使使用者(尤其是弱势使用者,如被照顾的老年人)的义务。






