中国有句古话:水能载舟,亦能覆舟。生成式人工智能就是今天的“水”,它既能将人类推向更高的高度,也能(如果我们不小心)用它的力量将我们淹没。
这项技术无意中造成危害的方式之一是通过能源消耗加剧气候危机。另一个危害是削弱甚至丧失解决问题的能力和创造力。此外,有问题和不准确的内容还会造成社会和法律影响。
气候变化加剧
GenAI给企业带来了两大挑战。首先,训练ChatGPT等模型所需的大量能源消耗加剧了气候危机。除非工程师能开发出更高效的硬件,否则这项技术可能会阻碍而不是帮助我们实现环保目标。
其次,过度依赖人工智能可能会导致我们忽视甚至丧失解决问题和创造力等宝贵技能。企业必须战略性地确定哪些技能需要保留,哪些技能需要外包给人工智能,在提高效率和保留人类独特能力之间取得平衡。在人工智能驱动的世界里,这些不仅关乎经济效益,还关乎身份认同。
削弱高层次推理
虽然人工智能可以实现任务自动化并增强决策能力,但早期证据表明,它也可能削弱高层次的推理能力。例如,在金融公司,人工智能驱动的预测可能会改善投资决策,但分析师解释和证明这些决策的能力可能会下降。
这给企业带来了挑战,因为有效的推理和沟通能力对于利益相关者的参与至关重要。关键是要战略性地将人工智能整合到工作流程中,确保该技术能够增强人的能力,而不是取而代之。这可能需要重新设计流程,在人工智能改善决策的同时,强调人的推理和解释能力。
制作有害内容和泄露敏感信息
GenAI创造大量有问题或不准确内容的能力会破坏人们对信息来源的信任,并使打击错误信息的工作复杂化。有害的GenAI输出,包括仇恨言论、非法内容或两极分化的信息,也会产生社会和法律影响。此外,人工智能生成的内容可能会侵犯知识产权或损害个人隐私。
信息泄露是另一个令人担忧的问题。当用户将专有代码或敏感数据输入人工智能模型时,就有可能出现意外泄露。在我们建立有效的控制机制之前,企业必须仔细考虑与这些系统共享的信息,并优先开发和部署符合道德规范的人工智能。