生成型 AI 如何在规定边界内提高价值

文摘   2024-08-27 10:46   浙江  

许多企业对于生成式 AI(Gen AI)提高员工生产力和现代化业务流程的潜力感到兴奋,但同时也试图平衡潜在的好处与风险,并学习如何最小化这些风险。Forrester Research 在其报告《生成式 AI 激发企业生产力、想象力和创新》中分析了企业在采用生成式 AI 方面的情况。



生成式 AI 的受益者



Forrester 将 生成式 AI 定义为 “一组利用包括大型语言模型在内的大量数据语料库来生成新内容(例如:文本、视频、图像、音频、代码)的技术和技巧。输入可以式自然语言提示或其他非代码和非传统输入。


行业专业人士对生成式 AI 模型的应用各不相同。由于生成式 AI 解决方案(包括大型语言模型)的多功能行,它们在专业创意人士中变得流行。其他群体也在利用 AI 应用程序的力量来简化他们的工作负载。


生成式 AI 技术的受益者包括:

  • 市场营销人员:通过让生成式 AI 创建初稿来节省时间。

  • 设计师:从文本提示中模拟视觉创意。

  • IT 人员:自动化云配置并节省成本。

  • 程序员:要求生成式 AI 编写复杂的代码。

  • 数据科学家:生成和共享保护客户个人信息的合成数据。

  • 销售代表:个性化拓展。

  • 运营专家:通过自动会议记录和产品帮助问答来分享知识。



生成式 AI 的风险



Forrester 指出,由于生成式 AI 存在时间相对较短,因此带来了一定的风险,所以需要设定一定的界限。像许多新技术一样,AI 既激发了客户的热情,也带来了严重的伦理问题。


生成式 AI 的一些风险与知识产权(包括版权侵权)和个人数据保护有关。最常被提及的一个问题就是——用于训练 AI 模型的数据质量。


人们还担心生成式 AI 系统是否应该增强而不是取代员工或业务流程。许多组织采取谨慎的态度,在向外部客户或关键任务应用公开生成式 AI 之前,先在低风险的内部用例中使用它。



负责任的 AI



意识到有效风险管理至关重要的专业人士和行业领袖,一直在倡导负责任的人工智能。


无论是 AI 开发者还是使用者,都在呼吁以一种优先考虑伦理、责任和社会福祉的方式部署人工智能系统。他们的主要关注点包括:

  • 责任和透明度:对 AI 决策明确负责。包括理解和解释结果的来源。

  • 隐私和安全:保护个人数据,确保 AI 系统免受恶意攻击和滥用。

  • 人类监督:保持人类监督,确保 AI 补充而不是取代人类判断。

  • 伦理标准:确保生成式 AI 系统与公平、透明和人权等伦理原则相符。


负责任的 AI 旨在利用 AI 好处的同时最小化潜在的危害,建立信任,并确保 AI 的进步对社会产生积极的影响。



与数据专家合作



一个好的起点是与值得信赖的 AI 供应商如 MicroStrategy 等合作。在 MicroStrategy,我们将 AI 与 BI 相结合,能够使用自然语言进行数据查询、创建仪表盘、生成 SQL 和在线系统帮助。


MicroStrategy AI 建立在数十年的 BI 专业知识和业界领先的语义图之上,以确保透明度和准确性。通过开发内置的语义层,我们解决了所有担忧,并确保负责任地使用 AI。



了解更多关于如何在您的企业中从生成式 AI 中获取价值,请点击 阅读原文 下载 Forrester Research 的报告《生成式 AI 激发企业生产力、想象力和创新》

微策略 商业智能
微策略 MicroStrategy (Nasdaq: MSTR) 是企业级分析和移动应用软件行业的佼佼者。关注我们了解行业资讯、技术干货和程序员日常。
 最新文章