TUI 如何利用 Amazon Bedrock 实现内容创作的规模化,并在 10 秒内提升酒店描述

TUI如何通过Amazon Bedrock优化内容创作,实现酒店描述在10秒内生成

关键要点

  • TUI集团利用Amazon Bedrock和SageMaker提升内容创作效率,实现酒店描述生成在10秒内完成。
  • 采用双模型解决方案,通过Meta Llama 2进行内容生成,使用Anthropic的Claude 2进行格式优化。
  • 该系统在SEO评分上提高了4%,内容生成速度提升了五倍。

TUI集团是全球领先的旅游服务公司,为2100万客户提供无与伦比的假期体验,覆盖180个地区。TUI通过超过400家自有酒店、16艘游轮、1200家旅行社和5家航空公司,提供全面的旅游服务。在TUI,高质量内容的创作是其推广战略的关键组成部分。

TUI的内容团队负责为网站创作高质量内容,涉及产品详情、酒店信息和旅游指南,常常需要使用酒店及第三方合作伙伴撰写的描述。内容必须符合TUI的品牌口吻,这是传达品牌独特个性的关键。然而,随着酒店和产品组合的不断扩展,内容创作的规模化变得越来越困难。这为使用增强和自动化现有内容创作流程提供了机会。

在这篇文章中,我们讨论了如何利用和构建一个内容生成器,该生成器根据特定的品牌和风格指导重写营销内容。AmazonBedrock是一项完全托管的服务,通过单一API提供来自AI21 Labs、Anthropic、Cohere、Meta、MistralAI、Stability AI和Amazon等知名公司的高性能基础模型(FMs),以及构建生成性AI应用所需的广泛功能。

解决方案概述

该架构由几个关键组件组成:

组件描述
LLM模型我们评估了不同的方法,发现双模型方案表现最佳。使用的是经过微调的模型生成酒店描述,以及模型进行输出格式化。
协调我们创建了一个使用的状态机,以批量调用两个LLM并获取生成内容的搜索引擎优化(SEO)评分。
人类反馈我们开发了一个自定义的,从内容团队收集反馈,以促进持续改进和未来模型微调。

以下是解决方案的高层架构图:

![架构图](https://d2908q01vomqb2.cloudfront.net/f1f836cb4ea6efb2a0b1b99f41ad8b103eff4b59/2024/10/24/ML-16070-architecture- 删除)

提示工程

我们开始制定提示,包含TUI内容团队识别的最常见问题,包括口吻、准确性、长度和语法。我们向LLM提供了几例经过筛选的内容示例。尽管生成的输出遵循了指导,但写作风格并未达到TUI的口吻要求。

示例提示:你是TUI的一名经验丰富的英国文案撰写人。TUI是全球领先的旅游公司。你擅长根据TUI的口吻生成酒店描述。TUI的口吻可以描述为欢快、热情和推广。避免使用以下列表中的所有单词:{禁止词} 最多写100个字。 你的酒店描述必须遵循TUI的口吻,并适用SEO指南。 这些是一些好的示例。你应当模仿: {示例}。 人类: {输入} 助手: 我们产生的结果示例如下:

原文生成文本
迷人的室内设计和绝佳位置,完美结合于这家小而精致的酒店。尽管只有15间客房,这家酒店的室内设计却给人以强烈的印象。无暇的游泳池坐落在开放的中庭区域,还有时尚的鸡尾酒吧和休息室。这家酒店的地理位置与其风格一样出色,步行约10分钟即可到达海滩,前往Thassos城中心还更近。这家小巧酒店为Thassos城带来了别致的风格。其无暇的游泳池和时尚的鸡尾酒吧成为了繁华中心中的一片绿洲。沙滩仅需步行10分钟,让您在日光浴和观光之间轻松切换。只有15间客房的设计让体验感既亲密又世俗。室内装潢将现代设计与传统元素相结合,营造出独特的氛围,中心位置意味着您可以轻松访问包括考古博物馆和购物街在内的热门景点。

接下来,我们生成了150个酒店描述的数据集并邀请业务团队进行审核,但他们对98%的输出提出了显著问题。首先,Anthropic的Claude2未能遵循TUI的品牌口吻和指导方针,常常使用缩写,并偏向美式英语而非英式英语。此外,它还未能遵循提供的SEO指南,有时生成的酒店设施和位置也存在错误。

删除)

在Amazon SageMaker JumpStart上微调Llama 2

这些问题和糟糕的反馈促使我们得出结论,光靠提示工程并不能充分解决问题。因此,我们决定采取另一种方法:微调一个较小的大型语言模型,以便根据TUI的口吻重写文本。我们采用了TUI文案创作人员撰写的一组经过筛选的酒店描述,以使模型更好地符合我们的指导方针。

我们选择了Meta Llama 2模型,使用进行微调,并选择了13B参数版本,通过量化低秩适应(QLoRA)应用参数高效微调(PEFT)技术。我们在单个ml.g5.4xlarge实例上,使用约4500条酒店描述进行了微调,耗时约20小时。我们还测试了Llama2的7B和70B模型,发现7B模型表现不佳,70B模型成本过高却未显著改善性能。

我们利用常见的自然语言处理(NLP)评估指标(如困惑度)进行评估和监控,并与内容团队建立了每日反馈循环,以精炼测试集。微调后的Meta Llama 213B模型有效模拟了TUI的口吻,并满足大部分未在提示中指定的SEO指南。

有关更多信息,请参见。

原文生成文本
NH München City Süd酒店,前身为NH München am Ring,位于慕尼黑东南部。地理位置理想,靠近通往萨尔茨堡的高速公路,并提供良好的机场和展览中心通道。您只需坐S-Bahn在Karl-Preis-Platz站20分钟即可到达市中心。安静的住宅区为您提供在163间房间中放松的绝佳机会,这里以白色和红色为主调。所有房间均提供免费Wi-Fi和足够大以容纳您笔记本电脑的电子保险箱。如果您需要工作,每间房间都配备宽敞的书桌,长住客可使用带独立起居室的公寓。套房则配备独立起居室,并可应要求提供折叠床。大丰盛的早餐将为您繁忙的一天做好准备,有冷盘、奶酪、新鲜糕点和水果,搭配新煮的咖啡、茶,和鲜榨果汁。酒店周边有许多餐厅可供午餐和晚餐。这里还有一个桑拿可供放松,您可以在车库停车。在慕尼黑的München City Süd酒店享受舒适。这家前NH München am Ring酒店坐落于巴伐利亚首府东南方向,便于前往萨尔茨堡的高速公路和机场。Karl-Preis-Platz S-Bahn站距离酒店步行很近,20分钟就能到达市中心。周围环境优雅宁静,提供绝佳的放松机会。酒店的163间客房以洁净的白色和红色装饰为特色,所有房间均提供免费Wi-Fi和足够容纳笔记本电脑的保险箱,宽敞的书桌让工作变得轻松。长期入住的客人可选择带独立起居室的公寓,套房则配有独立起居室,并可接受折叠床的请求。每天早晨,您都能在丰盛的早餐中享用冷盘、奶酪、糕点和水果饮品,搭配新鲜的咖啡、茶与果汁。酒店周边有众多餐饮选择。忙碌的一天结束后,可以在桑拿放松身心,或在车库停车。

我们将具有挑战性的条目进行整理,并确保生成内容符合所有预期标准。

删除)

集成Anthropic的Claude 2以进一步优化

为了进一步改善输出,我们引入了Anthropic的Claude 2,由AmazonBedrock提供最终的调整。此步骤包括将美式拼写转换为英式拼写,将数字一到九用文字写出,更大的数字以数字形式呈现,纠正拼写和大写错误,尽量减少禁止词,加入重要的TUI品牌词汇,以及补充缺失的酒店信息。我们还在用户界面中实施了反馈机制,以便使用数据进行持续的微调。通过使用Anthropic的Claude2,我们确保最终输出符合剩余的格式规定。

原文生成文本
名字就表明了Vienna Sporthotel是运动爱好者的天堂。这里有10个网球场和4个高尔夫模拟器,您还可以预约教练来提升技能。此外,还有一个户外游泳池、设备齐全的健身房和一个大型桑拿。为了补充运动所需的能量,您可以在早餐自助餐中享用丰盛的一餐。在地理位置上,这里极适合观光。乘坐公交,您可以在不到半小时内抵达霍夫堡、贝尔维德宫和卡尔教堂等景点。离最近的餐厅和咖啡馆也只有10分钟的步行距离。名字如Vienna Sporthotel,毫无疑问,热爱运动和活动的人士都能在此找到乐趣。利用10个网球场或4个高尔夫模拟器来提升技巧,然后在户外游泳池或设备齐全的健身房中恢复活力。一名教练随时待命,帮助您完美技艺。用丰盛的早餐盛宴来准备运动结束后的美好时光。接着,准备好进行观光吧——坐公交车,你能在30分钟之内抵达历史悠久的景点,像霍夫堡、贝尔维德宫和卡尔教堂一应俱全。您还可以徒步前往附近的美食和咖啡馆。

删除)

关键成果

最终架构结合了微调后的Meta Llama 2 13B模型和Anthropic Claude2,发挥了各自行长的优点。在一次盲测中,这些动态生成的酒店描述的评分比人工撰写的描述高出75%。我们还集成了第三方API来计算生成内容的SEO评分,观察到生成内容的SEO评分较人工撰写的描述提升了4%。最重要的是,内容生成过程现在快了五倍,显著提高了团队的生产力,而不影响质量或一致性。我们现在只需数小时,即可生成大量酒店描述,而此项工作以前需花费几个月时间。

持续展望

展望未来,我们计划探索此技术如何解决当前的效率和质量差距,尤其是对于我们团队没有能力进行文案创作的酒店。我们还计划将此解决方案扩展到TUI投资组合中的更多品牌和地区,包括在不同语言中生成内容并根据不同受众的具体需求进行定制。

在整个项目中,我们学习了一些有价值的经验教训:

  • 在只有有限示例和特定响应指南的情况下,few-shot提示法是经济且足够的。微调在内容需要与品牌口吻保持一致时能够显著提高模型性能,但资源密集且依赖的静态数据源可能会变得过时。
  • 微调Llama 70B模型的成本远高于Llama 13B,并未带来显著改善。
  • 人工反馈和保持人机协同的方式对于保护品牌完整性和持续改善解决方案至关重要。TUI工程、内容和SEO团队之间的协同合作是成功的关键。

尽管Meta Llama 2和Anthropic的Claude 2是在实验期间的最新前沿模型,但随后我们已经看到Meta Llama3和Anthropic的Claude 3.5发布,我们期待这些新技术能显著提高输出质量。Amazon Bedrock现在也支持对Meta Llama2、Cohere Command Light和模型的微调,使得无须管理基础设施也能更简便快速地测试模型。


关于作者

Nikolaos Zavitsanos 是TUI的一名数据科学家,专注于使用AWS服务开发面向客户的生成性AI应用。凭借在计算机科学和人工智能方面的坚实背景,他利用先进技术提升用户体验,推动创新。在工作之外,Nikolaos爱好水球,并在国家级别比赛中角逐。

Hin Yee Liu 是亚马逊网络服务(AWS)的高级原型参与经理。她帮助AWS客户实现他们的创意,加快新兴技术的应用。HinYee与客户的利益相关者密切合作,识别、塑造和交付利用生成性AI、人工智能/机器学习、大数据和无服务器技术的有影响力的用例。

加载评论…

Leave a Reply

Required fields are marked *