GPT-4火爆,遍地开花的人工智能会失控吗
OpenAI的GPT-4、微软的Copilot、百度的文心一言、谷歌的Bard、Adobe的Firefly……近期,国内外一系列生成式人工智能应用发布,引发了广泛的关注。
除了对技术进步感到兴奋,有风险意识的人也会产生这样的担忧:人工智能会失控吗?风险如何防范管控?
美国人工智能研究实验室OpenAI公司的首席执行官山姆·阿尔特曼(Sam Altman)近日表示,他对人工智能(AI)技术的潜力感到兴奋,但也对一些潜在的滥用行为“有点害怕”。
OpenAI是近期大火的AI聊天机器人ChatGPT的开发商,该公司由埃隆·马斯克与阿尔特曼等人共同创立。
上月,OpenAI创始人之一的埃隆·马斯克表示,“它有巨大的前景也有巨大的能力,但随之而来的危险也是巨大的。”
人工智能还没到“失控”水平
3月15日,OpenAI发布的GPT-4安全文件中提到, “一些特别令人担忧的是制定长期计划并采取行动、积累权力和资源(‘寻求权力’)以及表现出越来越‘自主’的行为的能力。”
据媒体报道,近年来,有人工智能研究人员提出警告,足够强大的AI模型如果没有得到适当控制,可能会对人类构成生存威胁。尤其是“人工智能接管(AI takeover)”,这是人工智能超越人类智能成为地球主导力量的假想未来。在这种情况下,人工智能可能会导致灾难性后果。
随着人工智能的高速发展,其可能带来的风险也引起了人们的高度关注。这就带来了一个担心,遍地开花的人工智能会失控吗?
首先,这种失控现在来看还不致于发生,因为目前的人工智能还没发展到这个水平。
失控的前提是AI要具有自主性,就是在很大程度上独立完成任务。那么,在AI系统没有足够理解人类价值观和道德准则的情况下,这种自主性就可能导致失控的风险。
但目前的生成式AI本质上还是人类的工具,给它一个指令,它来生成相应的文字、图片等内容,所以人们暂时还不需要有这方面的担心。
当然,随着技术的不断发展,未来这个潜在风险会成为我们重点去关注的问题。
更有可能失控的是用技术来为非作歹的人
比起失控的技术,更有可能失控的是用技术来为非作歹的“人”。比如,恶意使用者可能会利用ChatGPT来制造虚假信息、实施欺诈活动或进行其他不道德行为。
这很像人们担心会被AI替代导致失业一样,这其实是关注错了重点。因为其实人不会被AI淘汰(至少目前不会),而是会被掌握AI工具的“人”淘汰。
因此,这个层面上的风险,关键因素都在于人,而不是技术本身。因为即便没有AI,坏人也会用其他手段做坏事,善于学习的人也会运用其他工具提升自己的竞争力。
虽然AI目前不至于失控,但还是有一些风险。
一方面是它们会一本正经地胡说八道,如果用户把它所说的都认定为事实,那就会被误导。在这方面需要媒体多做普及,让更多人认识到ChatGPT等AI大模型并非无所不知。
另一方面,有可能出现个人隐私或商业机密泄露的情况。比如,用户在与ChatGPT等聊天机器人交流时,无意识地提供了敏感信息,如个人身份信息、联系方式或公司内部信息等。一旦这些信息被记录或存储,就可能导致隐私或商业机密的泄露。虽然AI服务提供商会采取措施保护用户数据,但数据存储和传输过程中仍然可能存在安全风险。
此外,由于训练数据集可能存在偏见,聊天机器人的回答会反映这些偏见,从而导致歧视性或不公平的结果。也可能因无法准确判断道德和伦理问题,有时产生不道德或具争议的建议。
从三个方向规避人工智能风险
那人类该如何规避这些风险呢?可以从三个方向进行。
第一个方向就是提高公众的认知。一方面要提高对AI技术的了解,避免被不恰当的信息所误导;另一方面,提高数据安全意识,避免泄露个人隐私或商业机密等敏感信息。新闻媒体在其中可发挥重要作用。
第二个方向是实施更全面的人工智能监管。首先,需要制定明确的法规和指导方针,以规范AI的研发、部署和使用。其次,政府、企业、研究机构和民间组织需要加强合作,共同制定和执行AI监管政策,这有助于确保政策的全面性和有效性。另外,由于 AI技术不受国界限制,应积极参与全球性的AI治理倡议,以确保全球范围内的政策协调和一致性。
第三个方向就是加强对于AI安全的研究。政府、企业和研究机构应增加对AI安全研究的投资,为相关项目提供充足的资金和资源。此外要重视AI安全领域的人才培养,鼓励学生和研究人员从事相关研究,可以通过提供奖学金、实习机会和专门的课程来实现。同时进行跨学科合作,鼓励计算机科学家、安全专家、伦理学家、法学家等领域的专家进行跨学科合作,共同应对AI安全所带来的挑战。
OpenAI在创立之初的核心宗旨就是——实现安全的通用人工智能,使其有益于人类。
“安全”这两个字对人工智能来说至关重要。无论是作为开发者、用户还是监管者,人们都应当时刻关注AI技术的安全性,确保人工智能不会被滥用。只有这样,我们才能充分发挥人工智能的潜力,为人类社会带来更多便利和进步。
责任编辑:祝加贝