AIGC元年大模型发展现状手册

零、AIGC大模型概览

AIGC大模型在人工智能领域取得了重大突破,涵盖了LLM大模型、多模态大模型、图像生成大模型以及视频生成大模型等四种类型。这些模型不仅拓宽了人工智能的应用范围,也提升了其处理复杂任务的能力。a.) LLM大模型通过深度学习和自然语言处理技术,实现了对文本的高效理解和生成;b.) 多模态大模型则能够整合文本、图像、声音等多种信息,实现跨模态的交互和理解;c.) 图像/视频生成大模型则进一步将AI技术应用于视觉内容创作,为用户提供了全新的创作以及内容消费体验,给商业应用提供了无限畅想的可能性,将有机会重塑社交、短视频等领域的现象级APP。

随着技术的不断进步,AIGC大模型正朝着更加智能化、精细化和个性化的方向发展。一方面,模型将不断优化算法,提升处理速度和精度,以满足日益增长的数据处理需求;另一方面,模型将更加关注用户个性化需求,提供更加精准、符合用户口味的内容生成服务。此外,跨模态融合也将成为未来的发展趋势,各种模态之间的信息将更加无缝地整合,为用户提供更加自然、流畅的交互体验。

AIGC大模型在多个领域都有着广阔的应用前景。基于 LLM 大模型的智能客服、语音助手和文本生成等应用有望成为主流。在内容创作领域,图像生成大模型和视频生成大模型将助力创作者快速生成高质量的视觉内容,降低创作门槛,提高创作效率,可用于创意设计、影视制作等领域。多模态大模型可以应用于图像与文本之间的关联分析和生成,为视觉搜索、智能图像编辑、图像问答、同声翻译等领域提供强大支持。此外,AIGC大模型还可应用于医疗、金融等多个行业,推动行业的智能化升级。

随着技术的不断进步和应用场景的不断拓展,AIGC大模型将逐渐渗透到人们生活的各个方面,成为推动社会发展的重要力量。接下来让我梳理下现有的四大类型大模型技术概览以及相关应用前景。

一、大语言模型

1.)技术演进

历史重要节点:谷歌预训练模型Bert(开源预训练) -> OpenAI大模型ChatGPT(闭源大模型) -> LLaMA(开源大模型)。

当然目前LLM依然还在百家争鸣中,语言模型技术发展图鉴,出自最新的一篇survey:Harnessing the Power of LLMs in Practice: A Survey on ChatGPT and Beyond,https://arxiv.org/pdf/2304.13712.pdf

技术文章:LLM技术发展、能力增强模式和应用杂谈(一) - 知乎,人工智能 LLM 革命破晓:一文读懂当下超大语言模型发展现状 /麦克船长LLM革命系列2 - 知乎

行业观察:2023 年人工智能现状报告-36氪

2.)时间机器成本

百B级别:LLaMA 3个月,380+ A100 80G,GPT-3 2个月,1000+ A100 80G;初步估算,150左右A100卡年,大概3000千万+购买卡,算上平摊折旧,预计每次训练耗费超过1000万。

千B级别GPT-4:1800B参数,13万亿token训练,6300万美元。

3.)典型微调技术

SFT(不同程度参数放开学习,或者经典的额外低参数学习lora、adapter等)

prompt engineering

对齐学习(RLHF)

4.)开源LLM

a.)第一梯队

LLaMA 2,Meta的LLaMA 2 于 2023 年 7 月实现用于研究和商业用途,是一个预训练的生成文本模型,它已通过来自人类反馈的强化学习 (RLHF) 进行了微调。它是一种生成文本模型,可以用作聊天机器人,可以适应各种自然语言生成任务,包括编程任务。Meta 已经推出了 LLaMA 2, Llama Chat, 和 Code Llama 的开放定制版本。2023年国内多家企业,基于LLaMA已经加速完成了很多大模型的储备工作,LLaMA降低了国内自有大模型研发的门槛。

Falcon, 阿拉伯技术创新研究所的Falcon 40B曾在 Hugging Face 的开源大型语言模型排行榜上排名 #1Falcon 180B 于 2023 年 9 月发布,可以接受 1800 亿个参数和 3.5 万亿个 Token。凭借这种令人印象深刻的计算能力, Falcon 180B 在各种 NLP 任务中已经超过了 LLaMA 3 和 GPT-5.2,而 Hugging Face 表明它可以与谷歌的 PaLM 2 相媲美,后者是为 Google Bard 提供支持的 LLM。虽然免费用于商业和研究用途,但重要的是要注意 Falcon 180B 需要珍贵的计算资源才能运行。

XGen,Salesforce于 2023年 7 月推出了 XGen-7B LLM。根据作者的说法,大多数开源 LLM 专注于提供信息有限的大答案(即几乎没有上下文的简短提示)。XGen-7B 背后的想法是构建一个支持更长上下文窗口的工具。特别是,XGen (XGen-7B-8K-base) 的最高级方差允许 8K 上下文窗口,即输入和输出文本的累积大小。效率是 XGen 的另一个重要优先事项,它只使用 7B 参数进行训练,远低于大多数强大的开源 LLM,如 LLaMA 2 或 Falcon。尽管体积相对较小,但 XGen 仍然可以提供出色的效果。该模型可用于商业和研究目的,但 XGen-7B-{4K,8K}-inst 变体除外,该变体已在教学数据和 RLHF上进行了训练,并在非商业许可下发布。

BLOOM,Hugging Face于 2022 年推出,经过与来自 70+ 个国家的志愿者为期一年的合作项目,BLOOM 是一个自回归 LLM,经过训练,可以使用工业规模的计算资源在大量文本数据上从提示中连续文本化。BLOOM 拥有 176 亿个参数,是最强大的开源 LLM 之一,能够以 46 种语言和 13 种编程语言提供连贯准确的文本。每个人都可以访问源代码和训练数据,以便运行、研究和改进它。BLOOM 可以通过 Hugging Face 生态系统免费使用。

BERT(双向transformer),开启预训练模型时代,由OpenAI接力研发ChatGPT(单向transformer)进入大模型时代。BERT(Bidirectional Encoder Representations from Transformers)于 2018 年由 Google 作为开源 预训练模型推出,在许多自然语言处理任务中迅速实现了最先进的性能。在 2020 年,谷歌宣布已通过 70 多种语言的 Google 搜索采用了 Bert。目前有数以千计的开源、免费和预训练的 Bert 模型可用于特定用例,例如情感分析、临床笔记分析和有害评论检测。

b.)第二梯队

OPT,2022 年发布的 Open Pre-trained Transformers(OPT)语言模型标志着 Meta 通过开源解放 LLM 竞赛战略的又一个重要里程碑。OPT 包括一套仅解码器的预训练转换器,参数范围从 125M 到 175B。OPT-175B 是市场上最先进的开源 LLM 之一,是 GPT 最强大的兄弟,性能与 GPT-3 相似。预训练模型和源代码都向公众开放。然而,如果你正在考虑开发一家具有 LLM 的人工智能驱动型公司,你最好考虑另外的模型,因为OPT-175B 是在非商业许可下发布的,只允许将该模型用于研究。

GPT-NeoX 和 GPT-J 由非营利性 AI 研究实验室 EleutherAI 的研究人员开发,是 GPT 的两个很好的开源替代品。GPT-NeoX 有 20 亿个参数,而 GPT-J 有 6 亿个参数。尽管大多数高级 LLM 可以使用超过 100 亿个参数进行训练,但这两个 LLM 仍然可以提供高精度的结果。他们已经接受了来自不同来源的 22 个高质量数据集的训练,这些数据集使它们能够在多个领域和许多用例中使用。与 GPT-3 相比,GPT-NeoX 和 GPT-J 尚未使用 RLHF 进行训练。任何自然语言处理任务都可以使用 GPT-NeoX 和 GPT-J 执行,从文本生成和情感分析到研究和营销活动开发。这两个 LLM 都可以通过 NLP Cloud API 免费获得。

Vicuna-13B 是一个开源对话模型,通过使用从 ShareGPT 收集的用户共享对话对 LLaMa 13B 模型进行微调而训练而来。作为一款智能聊天机器人,Vicuna-13B 的应用不胜枚举,下面在客户服务、医疗、教育、金融、旅游/酒店等不同行业进行说明。使用 GPT-4 作为评委的初步评估显示,Vicuna-13B 达到了 ChatGPT 和 Google Bard 的 90% 以上质量,然后在超过 90% 的情况下优于 LLaMa 和 Alpaca 等其他模型。

二、多模态大模型

1.)现有案例

OpenAI:GPT4-V,背书强。来自阿卜杜拉国王科技大学开源MiniGPT-4,主要强调高效,省钱,只训练新加的一个线性层,据说4张A100训10小时。

微软:LLaVA是一个开源 LMM(MLLM),由威斯康星大学麦迪逊分校、微软研究院和哥伦比亚大学联合开发。该模型旨在提供多模态的开源版本 GPT4.

Meta:ImageBind是由 Meta 制作的开源模型,模拟人类感知关联多模态数据的能力。该模型集成了六种模式:文本、图像/视频、音频、3D 测量、温度数据和运动数据,学习跨这些不同数据类型的统一表示。

Meta:SeamlessM4T 是 Meta 设计的多模态模型,旨在促进多语言社区之间的沟通。 SeamlessM4T 擅长翻译和转录任务,支持语音到语音、语音到文本、文本到语音和文本到文本翻译。

谷歌:Gemini 的核心采用基于 Transformer 的架构,类似于 GPT-3 等成功的 NLP 模型中采用的架构。 然而,Gemini 的独特之处在于它能够处理和整合多种形式的信息,包括文本、图像和代码。 这是通过一种称为 跨模态注意力,它允许模型学习不同类型数据之间的关系和依赖关系。

谷歌:Flamingo 具备强大的多模态上下文少样本学习能力。Flamingo 走的技术路线是将大语言模型与一个预训练视觉编码器结合,并插入可学习的层来捕捉跨模态依赖,其采用图文对、图文交错文档、视频文本对组成的多模态数据训练,在少样本上下文学习方面表现出强大能力。但是,Flamingo 在训练时只使用预测下一个文本单词作为目标,所以只能支持以文本作为输出的多模态任务理解。 LAION 开源了 Flamingo 模型的复现版本 OpenFlamingo。

2.)基本模块

LMM(MLLM),它们通常涉及三个基本组件和操作。

a.)首先,模态嵌入,为每种数据模态采用编码器来生成特定于该模态的数据表示(称为嵌入)。

b.)其次,模态对齐,使用不同的机制将不同模态的嵌入对齐到统一的多模态嵌入空间中。

c.)最后,输出模态,对于生成模型,通常生成文本用于响应。由于输入可能由文本、图像、视频和音频组成,需考虑在给出响应时考虑不同的模式。

3.)技术趋势:

LMM(MLLM)的发展仍处于初级阶段,需要在以下方面进行改进:

  1. 提升感知能力:寻找更高效压缩视觉信息的视觉基模。
  2. 加强推理能力:多模态推理在推理过程中仍较容易出现错误,需要改进模态推理的方法。如多模态的思想链等。
  3. 提升指令跟随能力:指令调优覆盖更多任务以提高泛化能力。
  4. 解决对象幻觉问题:多模态细粒度的特征对齐。
  5. 实现参数高效的训练:多模态的高效融合训练。

三、图像大模型

图像生成技术是人工智能领域的重要研究方向,它可以通过学习现有图像的特征和分布,生成新的逼真图像。近年来,1.)基础图像生成模型如MidjourneyStable Diffusion以及2.)保ID图像生成模型如FaceChainPhotoMakerInstantID等方法得到了广泛关注。这两类模型在图像生成领域具有重要意义,各自有着不同的特点和应用场景。

1.)基础图像生成模型

目前在基础图像生成模型领域的SOTA是Midjourney和Stable Diffusion,这是两种不同的图像生成模型算法,具有各自的特点和优势。

a.)Midjourney(闭源):

Midjourney是一种基于自编码器(Autoencoder)的图像生成模型,旨在实现高质量、高分辨率的图像生成。

该模型通过学习图像的潜在表示,然后从潜在空间中重建图像,从而生成逼真的图像。

Midjourney的优势在于可以生成高质量的图像,并且具有较好的稳定性和可控性。

b.)Stable Diffusion(开源):

Stable Diffusion是一种基于扩散过程的生成模型,最早由NVIDIA提出,旨在实现高质量、高分辨率图像的生成。该模型利用随机噪声逐步扩散和改进图像,通过多次迭代扩散过程,逐渐生成逼真的图像。Stable Diffusion的优势在于可以生成具有高度逼真性的图像,并且具有很高的灵活性和可控性。

2.)保ID图像生成模型:

在人像保ID图像生成方面有如下三类方法:facechain、photomaker和instantID,都是针对人脸生成任务的解决方案,各自具有独特的优势和局限性。以下是对它们优劣的总结及扩充:

2.1)FaceChain

写实风格写真:facechain生成的人脸图像具有高度写实的特点,能够准确还原真实人物的特征和表情,使得生成的人脸图像更加逼真。开源代码,https://github.com/modelscope/facechain。

推理速度快:FaceChain-fact:Face Adapter for Human AIGC,10秒的推理时间使得facechain-fact在实时性要求较高的场景下具有显著优势,如即时AI写真生成、AI虚拟试衣、AI虚拟试妆等场景。

自研Transofrmer架构:基于自研的Transofrmer架构的人脸特征提取器,https://github.com/modelscope/facechain/tree/main/face_module/TransFace,使得facechain在人脸特征提取方面更加精准,更符合SD(Stable Diffusion)的架构需求,提高了人脸生成的准确性。

深入SD底层的Block人脸信息注入:通过深入SD底层的Block进行人脸信息注入,facechain能够更好地控制人脸生成的细节,使得生成的人脸图像更加精细。

无缝兼容LoRA模型与ControlNet:facechain能够无缝兼容LoRA模型与ControlNet,这使得它在风格保持度方面具有显著优势,能够生成具有一致性和稳定性的人脸图像。

用法上,facechain对于自定义的文本生成写真上未做更多探索,在与风格lora结合、固定模版重绘上有较大友好性,比较契合现有爆款写真应用。

2.2)Photomaker

Clip通用图像编码器:photomaker采用Clip通用图像编码器,使得它能够处理多种类型的图像数据,提高了通用性和灵活性。

以ID为中心的训练数据:通过以ID为中心的训练数据,photomaker能够生成具有一致性和连续性的人脸图像,使得不同图像中的人物特征能够保持一致。

相对来讲Photomaker会比较擅长非写实类写真,另外将人脸信息融入文本信息可能会导致两者之间的干扰,影响生成图像的准确性和一致性。

2.3)InstantID

人脸编码器:instantID具备专业的人脸编码器,能够准确提取人脸特征,为生成高质量的人脸图像奠定基础。

深入至SD底层Block的人脸信息注入:通过深入至SD底层的Block进行人脸信息注入,instantID能够实现对人脸生成细节的精准控制。

IdentifyNet利用关键点联合控制人脸:IdentifyNet的引入使得instantID能够利用关键点联合控制人脸,提高了人脸生成的准确性和自然度。

与photomaker类似,instantID生成的人脸图像也会更擅长非写实类写真生成。

2.4)总结

综上所述,facechain在写实风格写真以及当前具体应用上具有优势,适用于需要高度还原真实人物特征的场景;photomaker和instantID则更偏向于非写实的人脸生成,适用于艺术创作或个性化风格需求较高的场景。在选择使用哪种方法时,需要根据具体需求和场景进行权衡和选择。

四、视频大模型

视频生成大模型分为通用视频生成大模型和人像视频生成大模型两种。通用视频生成大模型旨在生成各种类型的视频内容,包括风景、动物、人物等,具有较强的通用性和泛化能力。而人像视频生成大模型则专注于生成与人物相关的视频内容,如人物动作、表情、姿态等,更贴近实际应用场景。

通用视频生成大模型在生成各种类型的视频内容时具有较好的效果,可以生成具有丰富内容和多样风格的视频。然而,由于需要考虑多种场景和内容,通用视频生成大模型可能在生成人物相关的视频时表现不如人像视频生成大模型。

人像视频生成大模型专注于人物相关的视频内容,可以更准确地捕捉人物的动作、表情和姿态,生成更具真实感和细节丰富的人物视频。这使得人像视频生成大模型在人物相关的应用场景中具有更大的优势,如视频特效、虚拟人物创建等领域。

总的来说,通用视频生成大模型具有较强的通用性和泛化能力,适用于生成各种类型的视频内容;而人像视频生成大模型更贴近实际应用场景,可以生成更具真实感和细节丰富的人物视频,具有更广阔的应用前景。

1.)通用视频生成

1.1.)sora

报告:

Video generation models as world simulators

核心:

训练:

推理:

1.2.) svd (stable video diffusion)

论文:https://static1.squarespace.com/static/6213c340453c3f502425776e/t/655ce779b9d47d342a93c890/1700587395994/stable_video_diffusion.pdf

HFhttps://huggingface.co/stabilityai/stable-video-diffusion-img2vid-xt
Githttps://github.com/Stability-AI/generative-models

官方提供的样例图片,尺寸为(1024, 576),在所有参数均选择默认的情况下,占用显存约为60G。从效果来看,在前几帧的生成效果通常比较好,随着帧数的推移,视频的部分内容可能会发生形变。

模型框架:Align your Latents: High-Resolution Video Synthesis with Latent Diffusion Models

https://arxiv.org/pdf/2304.08818.pdf

训练侧:

推理侧:

video LDM decoder(encoder是独立的,decoder容易过拟合,实际现象进一步推理更长视频时可能还是会存在闪烁):

超分:

1.3.) animatediff

论文:AnimateDiff: Animate Your Personalized Text-to-Image Diffusion Models without Specific Tuning

项目主页:https://animatediff.github.io/

核心原理:

2.)人像视频生成

2.1.) animate anyone

论文:https://arxiv.org/pdf/2311.17117.pdf

训练:

阶段一:

阶段二:

In the second stage, we introduce the temporal layer into the previously trained model and initialize it using pretrained weights from AnimateDiff[11]. The input for the model consists of a 24-frames video clip. During this stage, we only train the temporal layer while fixing the weights of the rest of the network.

较为简洁合理,并且设计上保障了appearance、pose的准确性,将temporal放在了第二阶段学习。这样整体保障了视频逐帧的质量(appearance强保留原内容,pose强准确)。

2.2.)DreamMoving

论文:https://arxiv.org/abs/2312.05107

核心内容:

1、拓展animatediff + 2、3D control + 3、id引导的refnet

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.kler.cn/a/274132.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

Java 环境一键部署

文章目录 一、场景说明二、脚本职责三、参数说明四、操作示例五、注意事项 一、场景说明 本自动化脚本旨在为提高研发、测试、运维快速部署应用环境而编写。 脚本遵循拿来即用的原则快速完成 CentOS 系统各应用环境部署工作。 统一研发、测试、生产环境的部署模式、部署结构、…

香港科技大学广州|智能制造学域博士招生宣讲会—同济大学专场

时间:2024年3月28日(星期四)10:00 地点:同济大学嘉定校区济人楼310 报名链接:https://www.wjx.top/vm/mmukLPC.aspx# 宣讲嘉宾:崔华晨 助理教授 跨学科重点研究领域 •工业4.0 •智能传感器、自动光学检…

基于单片机的模糊PID炉温控制系统设计

摘 要 电热炉是在工业热处理的生产中广泛使用的一种设备,电热炉的温度控制系统存在时变性,非线性,滞后性等特征,难以用常规PID的控制器对系统达到很好的控制效果。当控温精度的要求高时,使用传统的控制理论方法难以达…

海外代理IP在跨境电商中的五大应用场景

在我国跨境电商的发展中,海外代理IP的应用日益广泛,它不仅帮助商家成功打入国际市场,还为他们在多变的全球电商竞争中保持优势。下面是海外代理IP在跨境电商中五个关键的应用场景。 1、精准的市场分析 了解目标市场的消费者行为、产品趋势以…

NSGA-III算法:如何在多目标优化问题中找到最合适的解

当我们面临多个目标函数时,单目标的遗传算法可能无法满足需求。这时,我们可以引入多目标遗传算法。在这种情况下,目标函数可能存在冲突,例如,一个目标函数需要最小化,而另一个目标函数需要最大化。某个目标…

Echo服务器学习__01(基础)

ASIO是一个跨平台,主要用于实现异步网络和其他一些底层I/O操作的C库 可以基于ASIO实现Echo服务端,在这之前,学习一些基础的知识和概念 ​ 1:IO多路复用 简单的来说,一个线程同时监听多个I/O事件就是I/O多路复用。任…

CSS学习(2)-盒子模型

1. CSS 长度单位 px :像素。em :相对元素 font-size 的倍数。rem :相对根字体大小,html标签就是根。% :相对父元素计算。 注意: CSS 中设置长度,必须加单位,否则样式无效&#xff…

设计模式在芯片验证中的应用——装饰器

一、装饰器模式 装饰器模式(Decorator)是一种结构化软件设计模式,它提供了一种通过向类对象添加行为来修改类对象的方法,而不会影响同一类的其它对象行为。该模式允许在不修改抽象类的情况下添加类功能。它从本质上允许基类代码对不可预见的修改具有前瞻…

鸿蒙开发入门教程—瀑布流的实战案例

给大家分享一下瀑布流的实战案例,和官方文档略有不同,本文数据直接从api接口获取,更接近实战。需要注意的是,要实现瀑布流,接口最好将图片尺寸一起返回。 本文效果图: 首先要实现IDataSource接口的对象&am…

c语言(数据在内存中的存储)

1. 整数在内存中的存储 整数的2进制表⽰⽅法有三种,即原码、反码和补码 三种表⽰⽅法均有符号位和数值位两部分,符号位都是⽤0表⽰“正”,⽤1表⽰“负”,⽽数值位最 ⾼位的⼀位是被当做符号位,剩余的都是数值位。 正整…

EI期刊复现:面向配电网韧性提升的移动储能预布局与动态调度策略程序代码!

适用平台:MatlabYalmipCplex/Gurobi/Mosek 程序提出一种多源协同的两阶段配电网韧性提升策略。在灾前考虑光伏出力不确定性与网络重构,以移动储能配置成本与负荷削减风险成本最小为目标对储能的配置数量与位置进行预布局;在灾后通过多源协同…

Javascript抓取京东、淘宝商品数据(商品采集商品详情图片抓取)

之前用的方法: let temp []var lists $(#J_goodsList li.gl-item)$.each(lists,function(idx,item){ temp.push({ id:$(item).data(sku), goods_img:$(item).find(img).attr(src), goods_name:$(item).find(.p-name em).text(), market_price:$(item).fi…

AI检测识别技术,为智能化视频生产赋能

在科技飞速发展的今天,智能化生产已经成为企业提高效率、降低成本、增强竞争力的关键所在。美摄科技,作为一家在音视频处理技术领域保持领先的创新型企业,不仅致力于提供卓越的音视频处理技术,更在AI检测识别领域积累了深厚的实力…

数据分析-Pandas序列滑动窗口配置参数

数据分析-Pandas序列滑动窗口配置参数 数据分析和处理中,难免会遇到各种数据,那么数据呈现怎样的规律呢?不管金融数据,风控数据,营销数据等等,莫不如此。如何通过图示展示数据的规律? 数据表&…

Flutter Widget:StatefulWidget StatelessWidget

Widget 概念 Widget 将是构建Flutter应用的基石,在Flutter开发中几乎所有的对象都是一个 Widget 。 在Flutter中的widget 不仅表示UI元素,也表示一些功能性的组件,如:手势 、主题Theme 等。而原生开发中的控件通常只是指UI元素。…

C++作业day6

编程1: 封装一个动物的基类,类中有私有成员:姓名,颜色,指针成员年纪 再封装一个狗这样类,共有继承于动物类,自己拓展的私有成员有:指针成员:腿的个数(整型 …

nodeJs 学习

常用快捷键 二、fs模块 回调函数为空,则表示写入成功! 练习 const fs require(fs); fs.readFile(../files/成绩.txt, utf-8, (err, dataStr) > {if (err) {console.log(读取失败);return err;}console.log(读取成功);const arr dataStr.split( )co…

C++_day6:2024/3/18

作业1:编程题: 以下是一个简单的比喻,将多态概念与生活中的实际情况相联系: 比喻:动物园的讲解员和动物表演 想象一下你去了一家动物园,看到了许多不同种类的动物,如狮子、大象、猴子等。现在…

一般做策划的的,上哪儿找策划方案借鉴?

许多策划人担忧,借鉴他人的经验和方案会会削弱自己的创新能力和独立思考。 但是,实际上,借鉴他人的经验和方案可以为自己提供更多的灵感和创意,同时也可以提高策划的成功率。 这里推荐策划人必备的宝藏网站(专治不会…
最新文章