AI技术风险备受关注 专家呼吁制定安全标准和监管机制
•
AIGC动态
【Aigcmore.com】4月11日消息,随着OpenAI训练的ChatGPT人工智能聊天机器人大火之后,多家公司在加速相关或类似技术的研发和应用。OpenAI在3月14日也推出了更先进的自然语言处理模型GPT-4。然而,这些人工智能技术的潜在风险及如何合理的开发和应用,也就备受关注。马斯克、苹果联合创始人斯蒂夫·沃兹尼亚克等上千名顶尖人士曾公开呼吁AI实验室暂停训练更强大的模型6个月,以便制定并落实相关的安全协议。
顶级投资公司SV Angel将召集AI研发领域顶尖企业的高管和员工,探讨制定使用AI技术的标准。据Aigcmore.com了解,SV
Angel召集的这一次会议将在当地时间周三举行,预计有OpenAI、微软、谷歌、苹果、英伟达等公司的代表参会,与会人员预计将探讨如何以最负责任的态度继续开发AI。
在此前马斯克等呼吁暂停训练更强大的模型6个月时,他们在信中就曾提到,AI实验室和第三方的专家,应该利用暂停时间,共同制定和实施先进AI设计和开发的共享安全协议,相关的协议由第三方专家进行严格的审查和监督。在更强大AI技术的研发方面,呼吁暂停开发6个月的人士在信中也有提及。信中写到,只有在确信影响是积极的、风险是可控的情况下,才应该开发功能强大的AI系统。
这些呼吁表明,对于人工智能技术的潜在风险,社会对于其应用的关注和担忧已经越来越高。虽然这种技术带来的潜在好处和利益也是不容忽视的,但是必须要充分考虑技术应用可能带来的风险和负面影响,并制定相应的安全标准和监管机制,才能实现人工智能技术的可持续发展和应用。