优化外贸网站水滴查企业查询
2026/4/18 16:37:12 网站建设 项目流程
优化外贸网站,水滴查企业查询,现在做网站建设的公司多么,深圳互联网推广公司引言 随着人工智能技术的飞速发展#xff0c;多模态大模型逐渐成为研究和应用中的热点。Qwen2VL-7B#xff0c;作为一个强大的多模态模型#xff0c;具备理解和生成文本、图像以及视频等多种数据类型的能力。本文将详细介绍如何在CUDA 12.1和Python 3.11环境下#xff0c;…引言随着人工智能技术的飞速发展多模态大模型逐渐成为研究和应用中的热点。Qwen2VL-7B作为一个强大的多模态模型具备理解和生成文本、图像以及视频等多种数据类型的能力。本文将详细介绍如何在CUDA 12.1和Python 3.11环境下使用RTX 3090显卡部署Qwen2VL-7B多模态大模型。环境准备1. 硬件与软件要求显卡NVIDIA RTX 3090实测7B量化模型需要16G以上显存CUDA版本CUDA 12.1Python版本Python 3.112. 下载模型文件首先需要从魔搭社区下载Qwen2VL-7B多模态大模型的文件。使用以下Python脚本可以方便地下载模型from modelscope import snapshot_download model_dir snapshot_download(Qwen/Qwen2-VL-7B-Instruct-GPTQ-Int4)该脚本会将模型文件下载到指定的目录便于后续使用。3. 创建虚拟环境并安装依赖使用Conda创建一个新的虚拟环境并安装所需的依赖库conda create --name qwen2_vl python3.11 conda activate qwen2_vl pip install -U vllm -i https://mirrors.tuna.tsinghua.edu.cn/pypi/web/simple pip install -U --force githttps://github.com/huggingface/transformers pip install qwen-vl-utils -i https://mirrors.tuna.tsinghua.edu.cn/pypi/web/simple这些依赖库包括vllm、transformers和qwen-vl-utils它们对模型的运行至关重要。模型部署1. 导入必要的库在部署模型之前需要导入相关的Python库from PIL import Image from transformers import AutoProcessor from vllm import LLM, SamplingParams from qwen_vl_utils import process_vision_info2. 初始化模型通过以下代码初始化Qwen2VL-7B多模态大模型MODEL_PATH qwen/Qwen2-VL-7B-Instruct-GPTQ-Int4 llm LLM( modelMODEL_PATH, limit_mm_per_prompt{image: 10, video: 10}, )这里设置了每个提示中图像和视频的最大数量。3. 设置采样参数设置生成文本的采样参数以控制生成文本的质量和多样性sampling_params SamplingParams( temperature0.1, top_p0.001, repetition_penalty1.05, max_tokens256, stop_token_ids[], )4. 准备输入数据构建包含图像和文本输入的消息IMAGE_PATH 1.jpg VIDEO_PATH /path/to/video.mp4 messages [ {role: system, content: You are a helpful assistant.}, {role: user, content: [ { type: image, image: IMAGE_PATH, max_pixels: 12845056, }, # { # type: video, # video: VIDEO_PATH, # } { type: text, text: What does this diagram illustrate?, }, ]}, ]5. 处理输入数据使用AutoProcessor和process_vision_info函数处理输入数据processor AutoProcessor.from_pretrained(MODEL_PATH) prompt processor.apply_chat_template( messages, tokenizeFalse, add_generation_promptTrue, ) image_inputs, video_inputs process_vision_info(messages) mm_data {} if image_inputs is not None: mm_data[image] image_inputs if video_inputs is not None: mm_data[video] video_inputs6. 生成输出文本最后将处理后的数据输入模型并生成输出文本llm_inputs { prompt: prompt, multi_modal_data: mm_data, } outputs llm.generate([llm_inputs], sampling_paramssampling_params) generated_text outputs[0].outputs[0].text print(generated_text)总结本文详细介绍了如何在CUDA 12.1和Python 3.11环境下使用RTX 3090显卡部署Qwen2VL-7B多模态大模型。通过详细的步骤和代码示例读者可以轻松实现模型的下载、依赖安装、初始化、数据准备和文本生成。希望本文能为你在多模态大模型的研究和应用中提供帮助。大模型算是目前当之无愧最火的一个方向了算是新时代的风口有小伙伴觉得作为新领域、新方向人才需求必然相当大与之相应的人才缺乏、人才竞争自然也会更少那转行去做大模型是不是一个更好的选择呢是不是更好就业呢是不是就暂时能抵抗35岁中年危机呢答案当然是这样大模型必然是新风口那如何学习大模型 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是最先掌握AI的人将会比较晚掌握AI的人有竞争优势。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。但现在很多想入行大模型的人苦于现在网上的大模型老课程老教材学也不是不学也不是基于此我用做产品的心态来打磨这份大模型教程深挖痛点并持续修改了近100余次后终于把整个AI大模型的学习路线完善出来在这个版本当中您只需要听我讲跟着我做即可为了让学习的道路变得更简单这份大模型路线学习教程已经给大家整理并打包分享出来, 有需要的小伙伴可以扫描下方二维码领取↓↓↓CSDN大礼包全网最全《LLM大模型学习资源包》免费分享安全咨料放心领取​一、大模型经典书籍免费分享AI大模型已经成为了当今科技领域的一大热点那以下这些大模型书籍就是非常不错的学习资源。二、640套大模型报告免费分享这套包含640份报告的合集涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师还是对AI大模型感兴趣的爱好者这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)三、大模型系列视频教程免费分享四、2025最新大模型学习路线免费分享我们把学习路线分成L1到L4四个阶段一步步带你从入门到进阶从理论到实战。L1阶段:启航篇丨极速破界AI新时代L1阶段了解大模型的基础知识以及大模型在各个行业的应用和分析学习理解大模型的核心原理、关键技术以及大模型应用场景。L2阶段攻坚篇丨RAG开发实战工坊L2阶段AI大模型RAG应用开发工程主要学习RAG检索增强生成包括Naive RAG、Advanced-RAG以及RAG性能评估还有GraphRAG在内的多个RAG热门项目的分析。L3阶段跃迁篇丨Agent智能体架构设计L3阶段大模型Agent应用架构进阶实现主要学习LangChain、 LIamaIndex框架也会学习到AutoGPT、 MetaGPT等多Agent系统打造Agent智能体。L4阶段精进篇丨模型微调与私有化部署L4阶段大模型的微调和私有化部署更加深入的探讨Transformer架构学习大模型的微调技术利用DeepSpeed、Lamam Factory等工具快速进行模型微调并通过Ollama、vLLM等推理部署框架实现模型的快速部署。L5阶段专题集丨特训篇 【录播课】全套的AI大模型学习资源已经整理打包有需要的小伙伴可以微信扫描下方二维码免费领取CSDN大礼包全网最全《LLM大模型学习资源包》免费分享安全资料放心领取​

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询