解锁内容设计的魔力,实现创造性和负责任的使用指南。
生成式AI在内容创作领域声誉不佳,这是不公平的。它并非像一些人所宣称的那样可怕。对于内容设计,它就像发现了一种魔法。它不是来抢走内容设计师的工作,而是来增强我们的能力,让我们有更多时间专注于我们真正热爱的事情 – 创造有意义的、以用户为中心的内容。
无论你是已经探索了AI的优势,还是刚刚开始旅程,让我们一起感受AI如何在每一步骤中带来神奇的触感。
简而言之,AI正在改变内容设计的格局,它是一个神奇的盟友而非威胁。它可以在内容设计的每个步骤中提供帮助,从发现到测试和迭代。尽管存在潜在的问题,如数据隐私和“幻觉”,但通过负责和知情的使用,结合不断发展的法规,AI可以成为内容设计师强大的工具。请记住,虽然AI可以协助我们,真正的魔力仍在于人类的创造力和同理心。让我们拥抱AI,让它增强而不是取代我们的工作。
揭秘人工智能
生成式AI,如OpenAI的ChatGPT,采用一种名为自然语言处理(NLP)的人工智能技术。NLP关注理解、分析和生成类似人类语言的文本。它通过训练来自网络的数据,截止到2021年底的几乎所有内容。
使用像ChatGPT、Google Bard、Perplexity AI等工具,都需要提供一个“提示”,这是启动与AI的对话的起点或指令,类似于开始一次对话。
令人惊讶的是,你可能已经在不知不觉中使用了AI,比如手机键盘上的预测文本 – 那就是AI!很快,AI将成为设计工具一个不可或缺的部分,因为像Google和Microsoft这样的科技巨头将很快推出AI功能。
探索的水晶球
在内容设计过程的初期,AI就像一个水晶球,揭示隐藏的见解。例如,使用AI分析网站上最常见的词汇,以帮助了解用户在寻找什么。但是,如果在研究中使用像ChatGPT这样的AI工具,并希望引用信息来源,确保这些信息存在以避免“幻觉”(我们稍后会谈到),或者考虑使用专门为此目的设计的Perplexity AI。
提示示例:
- 帮助我从这些用户访谈中识别关键主题。
- 生成这些聊天记录中常见用户查询的摘要。
不过,值得注意的是,人类在预测未来方面常常表现不佳,因此也不能完全依赖AI的预测。尽管如此,设想未来可能为我们带来的激动人心的可能性仍然令人着迷。
定义用户需求的魔杖
AI就像一支魔杖,赋予内容设计师增强的创造力和生产力。它可以根据人们在发现阶段收集的研究生成创意,提出潜在的用户角色,并开启内容可能性的新领域。
提示示例:
- 基于用户研究,定义内容应满足的前三个用户需求。
- 根据客户服务中心的反馈生成用户角色。
创意的仙女教母
AI就像仙女教母,神奇地转化人们的内容,以满足多样化的用户需求。它帮助人们生成各种创意,无论情况如何。
提示示例:
- 建议为在线车辆注册网页提供多种布局想法。
- 提出在人们的健康移动应用中展示心率数据的不同方式。
- 思考构建软件帮助中心新手指南的构思。
设计的魔镜
AI就像魔镜,反映出人们在内容设计中最深刻的设计。它可以提出引人入胜和富有同理心的标题、相关的关键词和语言选择 – 所有这些都以无障碍为核心。
提示示例:
- 为那些输入错误电子邮件地址的用户起草错误消息。
- 检查此文案的语气一致性并提出改进建议。
- 分析此页面的内容,以提高可读性和吸引力,然后提出改进建议。
对于内容设计师来说,包容性是使用AI的一个主要吸引点,它使人们能够根据个人需求和偏好个性化内容,通过生成简单的语言来提高可访问性,并通过训练AI来理解和尊重不同文化和能力的细微差异来促进包容性设计。
测试与迭代的魔药
借助AI,可以持续改进内容。它还可以充当品牌的谨慎守护者,提出编辑建议以保持品牌的语调和语气,同时检查语法和拼写。
提示示例:
- 根据用户反馈,为如何申请驾驶执照的说明建议修改。
- 使用英式英语,校对移动应用程序中的应用内消息,确保语言清晰并具有激励性。
- 检查内容是否与GOV.UK设计系统一致,并建议需要进行哪些醒目变更,并解释原因。
智慧顾问
AI可以像一位智慧顾问,提供根据需求量身定制指导和建议,支持个人和职业发展。无论是给简历提供反馈,撰写完美的求职信,还是学习新的技能 – 它都可以帮助你在个人和职业方面不断成长。
提示示例:
- 我想升职。这是我的职责清单以及我刚刚开始的新职责。帮我写一份申请新职位的提案。
- 这是我的工作经历清单,你能为我提供考虑的潜在职业选项吗?
- 我想学习如何写言情小说,请为我提供一个为期12周的学习计划。
潜在的陷阱
许多人担心使用任何AI工具时会出现的“幻觉”。当AI在缺乏训练信息的情况下生成自信但不正确的响应时,就会发生这种情况,这是一个令人担忧的问题。许多人还担心知识产权(IP)风险和数据隐私问题,因为使用这些工具会授权像OpenAI(ChatGPT的所有者)这样的公司在未来的语言模型训练中使用信息。
数据和隐私问题
以下几点或许能让用户感到放心:
- 如果关闭聊天历史记录,可以避免这一切。
- 如果不想这么做,可以考虑使用API。这是一组规则,允许应用程序与AI系统安全通信。它可以为AI提供关于如何处理数据的指示,如存储或记住它,增强了信息的隐私保护。
- 大多数创意都不是独一无二的。大多数以文本为主的工作不包含真正的知识产权,但专有信息或代码、个人细节或客户信息则是不同的情况。
- 正如Rachel Woods所说,进行“Reddit测试” – 如果不愿匿名在Reddit上发布某些东西,就不要输入到AI中。
- 如果仍然不放心,可以考虑使用类似Writer这样的工具。与其他语言模型不同,它基于公司的数据,保护数据隐私,从不用于模型训练。
AI模型中的偏见
AI模型可能会学习和复制其训练数据中存在的偏见,这是AI伦理的一大关切。应对这一问题包括:
- 多样化数据收集:收集包容和多样化的数据可以帮助减少偏见。
- 定期偏见检查:AI系统应在训练和部署过程中定期接受偏见审核。
- 透明度:增加AI决策过程的可理解性可以帮助发现偏见。
- 偏见缓解:在模型训练之前或之后应用技术来减少偏见。
- 公众参与:让用户或受AI影响的人参与影响系统规则和政策,以促进公平性(引自《时代》杂志,2023年)。
环境影响
将生成式AI应用于搜索过程可能需要每次搜索四到五倍的计算资源,当前的数据中心基础设施可能无法满足这种需求的增加。这种操作的能源需求可能会导致全球温室气体排放增加(《连线》杂志,2023年)。
然而,与交通或纺织等领域相比,AI系统对温室气体排放的贡献相对较小。AI系统也有望变得更加节能。谷歌已经发布了一个能源消耗更低的Bard版本,而微软和谷歌等科技巨头已承诺减少碳排放并转向可再生能源(《连线》杂志,2023年)。
展望未来
通过共同努力,可以与AI一起工作,将其用作善的工具。研究人员和组织正在积极开展负责任的AI开发、伦理考虑和监管工作,欧盟于2023年6月14日通过了具有历史意义的AI监管法案。
这是世界上第一个全面规范AI技术的重要规则集。该法案包括了关于在面部识别、社会评分和算法决策等领域使用AI的规定。
谷歌、亚马逊和微软支持欧盟AI法案,表示这将有助于确保AI的负责任和伦理使用。这些公司还表示愿意与欧盟合作实施这项法案(《华盛顿邮报》,2023年)。因此,让我们继续倡导伦理AI,并在可能的情况下参与其中,以影响为我们服务并保护我们免受AI陷阱的政策。
7个打造完美提示的技巧
就像有一支精灵团队一样,当人们需要时,AI在背后不知疲倦地提供帮助。然而,AI不能独立行动或思考,需要明确的指令才能得到符合期望的答案。以下是一些顶级提示参考。
- 以“充当专家…”开头的提示,这将给AI一个参考的起点框架。
- 定义风格和语气:如果追求简单的语言,或者想要参考风格指南,请明确表达。
- 提供背景信息:试图解决的问题是什么,为谁解决的?
- 指定内容类型:是用于网站、演示文稿、博客文章等?
- 边写边改:不要指望第一个提示就能得到完美的结果,就像设计中的迭代过程一样,与AI互动也是如此。
- 事实核查:随着进展,进行事实核查是至关重要的,因为这是一个语言模型,对输出内容进行批判性评估是不可或缺的。
- 学习如何编写更好的提示:提示工程是AI领域的最新流行词。这包括学习如何编写有效的提示。这正是人们都在学习的内容 – 这不是一份工作,而是一项技能,熟能生巧。ONE ChatGPT提示是帮助练习的最佳方式之一。
最后的思考
请记住,AI工具可以在写作过程中帮助提供帮助,但它们并不完美,通常不会在第一次尝试时产生所期望的结果。但要有耐心,不断迭代和改进方法,以充分利用这些工具。
尽管AI可以是强大的盟友,内容设计的真正魔力仍在于人类的创造力、同理心和理解力。用邓布利多的话来说:
“在我个人来说,话语是我们最用之不竭的魔法源泉。” — 邓布利多
因此,让我们欢迎AI的帮助,同时认识到人类专业知识的不可替代作用。抓住机会,担当语言和UX设计方面的专家角色,展示我们在支持企业领导AI实施方面的价值。这对人们来说是一个巨大的机会,没有比内容设计师更合适的人来担当这个角色了。