2026/4/18 9:34:19
网站建设
项目流程
哈尔滨建站模板展示,怎么做一个自己的网页,产品的推广方式,建个网站用多少钱最近有没有考HCIA-AI Solution H13-313的#xff0c;整理了一部分题库#xff0c;完整版已经上传到“题主”小程序上了#xff0c;需要的可以自己去找一下。以下哪些选项属于LLM的高效微调方法#xff1f;A、Adapter TuningB、P-tuningC、Prefix-tuningD、LoRA答案#xf…最近有没有考HCIA-AI Solution H13-313的整理了一部分题库完整版已经上传到“题主”小程序上了需要的可以自己去找一下。以下哪些选项属于LLM的高效微调方法A、Adapter TuningB、P-tuningC、Prefix-tuningD、LoRA答案ABCD解析以上所有选项都是大语言模型LLM的高效微调Parameter-Efficient Fine-Tuning PEFT技术。Adapter TuningA在模型中插入小型适配器模块P-tuningB和Prefix-tuningC通过优化连续的提示前缀向量来引导模型LoRAD通过低秩分解在权重矩阵旁增加可训练的旁路矩阵。这些方法都只更新少量参数从而大幅降低微调所需的计算和存储成本。以下哪些部分属于Vision Transformer的组成结构A、Positional EncodingB、Patch EmbeddingC、Transformer EncoderD、MLP Head答案BCD解析Vision TransformerViT是将Transformer架构应用于图像分类的模型。其核心结构包括将图像分割成块并进行线性映射的Patch EmbeddingB用于特征提取和交互的Transformer Encoder堆叠C以及用于最终分类的MLP HeadD即分类头。位置编码Positional Encoding A虽然常被提及但在标准的ViT论文中使用的是可学习的1D位置嵌入Learnable 1D Position Embedding它是Patch Embedding的一部分相加并非一个完全独立于Patch Embedding的“Positional Encoding”模块。题目可能基于广义理解或不同实现将A纳入但根据标准ViT架构和常见考题位置信息处理已融入Patch Embedding后的步骤而不单独列为与B、C、D并列的核心“组成结构”。因此更常见的标准答案不包括A。基于传统统计的方法进行文本分类需要进行以下哪几个步骤A、特征提取B、选择分类器C、特征选择D、综合分析答案ABC解析传统基于统计的文本分类如使用TF-IDF特征和SVM分类器的典型流程包括从文本中提取原始特征A如词袋、TF-IDF为了提升效果和效率通常需要进行特征选择C如选择信息增益高的特征最后选择一个合适的分类器B如朴素贝叶斯、SVM进行训练和预测。“综合分析”D并非流程中一个具体的标准步骤可能指模型评估或结果解释不属于核心流程步骤。各大公司在推出自家的大模型系列的时候也预见了模型越大部署所需算力越大的瓶颈故给出了模型的量化版本以下哪些选项为系列模型的量化版本A、Pangu-pi-1BB、LLaMA-7BC、Phi2-2.7BD、Qwen-1.8B答案ACD解析题目中的“量化版本”可能指模型名称中带有特定标识、或广泛被认为是某个更大模型的量化或压缩变体。Pangu-pi-1BA通常是盘古大模型的一个较小或压缩版本Phi-2-2.7BC是微软Phi系列的一个较小规模模型Qwen-1.8BD是通义千问系列的轻量版本。这些都可以视为针对部署优化的“量化”或“小型化”版本。而LLaMA-7BB是Meta开源的原始基础模型之一7B参数其本身并非一个量化版本虽然用户可以后期对其进行量化但其名称不直接代表量化版本。盘古政务大模型不仅能处理文本文档数据相关的问题模型预测练阶段也包括图片、视频、音频等多模态数据以下场景中涉及模型多模态能力的有哪几项A、政务公文撰写B、政务文案生成C、政务数字人D、政务热线答案CD解析政务数字人C通常需要结合语音、视觉形象、表情和文本交互属于多模态应用场景。政务热线D的智能化可能涉及语音识别音频转文本和语音合成文本转音频也涉及多模态音频与文本。政务公文撰写A和政务文案生成B主要处理文本内容属于纯文本单模态任务。大模型目前有以下哪些应用领域A、工业生产B、设备巡检C、会议助手D、创意营销答案ABCD解析大模型尤其是多模态和行业大模型的应用已广泛渗透到各个领域。在工业生产A中可用于流程优化、知识问答等在设备巡检B中可结合视觉分析故障会议助手C可进行会议纪要、内容总结创意营销D可生成广告文案、策划方案等。因此所有选项均为大模型当前的实际应用领域。如图为大模型训练的网络关键技术PFC示意图关于PFC功能描述正确的是哪几项A、只有队列里面的报文全部排空PFC反压帧率才会停止发送B、RoCE报文可以支持8个队列并且报文封装在UDP层C、在图中交换机A—Priority7端口可能会接受到来自交换机B—Priority6的PFC报文D、交换机A和交换机B都必须支持PFC技术答案BD解析PFC是一种链路层流量控制机制。RoCERDMA over Converged Ethernet是运行在以太网上的RDMA协议它依赖于PFC等无损网络技术。RoCE v2报文确实封装在UDP层之上并支持8个优先级队列B正确。要使PFC生效链路两端的设备如交换机A和B都必须支持该技术D正确。关于APFC反压的触发和停止基于队列的拥塞阈值如Xon/Xoff阈值并非必须等队列完全排空才停止发送。关于CPFC帧的发送是基于本端口某个优先级队列发生拥塞并向对端设备发送对应优先级的PFC暂停帧通常不会出现从优先级6的端口向优先级7的端口发送PFC帧来控制优先级7流量的情况除非有特殊映射因此该描述可能不正确。当需要对规模较大且较为复杂的网络进行管理时通常会用到一些技术或协议以下关于这些技术或协议描述错误的是哪些项A、网络运营与维护的过程中为了便于业务监测和故障定位网络管理员可以通过镜像技术获取设备上的业务报文进行分析B、PFC功能实现端到端的流控时只需要开启任意一台交换机的队列功能即可实现全域的PFC功能C、SNMP是广泛用于TCP/IP网络的网络管理标准协议共有三个版本SNMPv1、SNMPv2c和SNMPv3D、ECN是一项监控设备性能和故障的远程数据采集技术它采用“推模式”获取监控数据最高可达分钟级的数据采集精度答案BD解析A正确端口镜像SPAN是常见的网络监测手段。B错误PFC基于优先级的流量控制是一种链路层逐跳hop-by-hop的流量控制机制需要在可能发生拥塞的链路上两端设备都启用和支持而不仅仅是任意一台交换机开启队列功能。C正确SNMP简单网络管理协议的三个主要版本如所述。D错误ECN显式拥塞通知是TCP/IP协议栈中的一项拥塞控制机制用于在网络发生拥塞时通知终端减速而非用于远程监控设备性能的“数据采集技术”。远程监控通常使用SNMP、Telemetry等技术。以下哪些模型可用于视频的生成A、Video Diffusion ModelB、GPT3C、SoraD、BERT答案AC解析视频生成是生成连续图像序列的任务。Video Diffusion ModelA是扩散模型在视频生成领域的应用SoraC是OpenAI开发的文生视频模型。两者都专用于视频生成。GPT3B是大语言模型主要用于文本理解和生成。BERTD是基于Transformer的文本编码模型用于自然语言理解任务。两者均不具备视频生成能力。以下哪些选项是MindFormers大模型套件提供的用户使用方式A、图形界面B、API使用C、镜像D、脚本使用答案BD解析MindFormers是华为MindSpore生态中的大模型开发套件主要面向开发者提供编程接口和工具。其主要使用方式包括通过Python APIB进行调用和集成以及通过提供的示例脚本D进行任务启动和配置。它不是一个提供图形用户界面A的桌面应用。虽然官方可能提供容器镜像C以简化环境部署但“镜像”更多是一种部署和环境载体而非直接的“用户使用方式”脚本和API才是用户在镜像内部实际操作模型的方式。因此核心的用户使用方式是B和D。在RAG系统中以下关于生成组件的功能描述正确的是哪些项A、生成组件只使用用户的原始查询作为输入不结合从检索器模块得到的任何文本片段B、生成组件可能会生成多个候选答案并通过去噪、筛选和重排序的后处理步骤选择最优的回答输出C、生成组件可以直接从检索到的文本生成答案无需理解上下文或用户的查询D、生成组件通过理解输入的上下文和用户的查询生成自然语言回答涉及文本生成和语法一致性答案BD解析在检索增强生成RAG系统中生成组件通常是大语言模型的输入是用户的原始查询结合检索器返回的相关文本片段上下文因此A错误。生成组件需要理解整合后的上下文和查询意图才能生成准确的答案因此C错误。生成过程可能涉及生成多个候选答案并进行后处理优化B正确其核心任务正是基于整合的输入信息生成流畅、连贯、符合语法的自然语言回答D正确。MindFormers在线分布式推理支持以下哪些高阶APIA、text_generator接口B、pipelineC、Trainer.generateD、Trainer.predict答案AB解析MindFormers为方便用户进行大模型推理提供了多种高阶API。text_generator接口A是专门用于文本生成的接口。pipelineB是一种更通用的、面向任务如文本生成、分类的简易调用方式。Trainer类是MindFormers中用于训练和评估的核心类虽然它可能包含generate和predict方法但“在线分布式推理”场景更典型地使用专为推理优化的轻量级接口如A和B而非主要通过Trainer类进行。根据MindFormers的官方文档和使用模式text_generator和pipeline是更直接和常用的分布式推理高阶API。大模型高效微调技术可以粗略分为以下三大类增加额外参数Addition—Based、选取一部分参数更新Selection—Based、引入重参数化Reparametrization—Based。以下哪些选项属于增加额外参数这类方法A、Adapter TuningB、QLoRAC、P-TuningD、Prefix Tuning答案ACD解析根据题干分类增加额外参数类方法是在预训练模型结构中插入新的、可训练的小型参数模块而保持原有参数冻结。Adapter TuningA插入适配器模块P-TuningC和Prefix TuningD引入可训练的连续提示前缀向量这些都属于增加额外参数。QLoRAB是基于LoRA的方法LoRA属于“引入重参数化”类通过低秩分解引入可训练矩阵对原始权重进行重参数化而非简单地增加独立的新模块。一个有效的思维链应该具有以下那些特点A、逻辑性B、全面性C、可验证性D、可行性答案ABCD解析思维链Chain-of-Thought CoT旨在通过一系列中间推理步骤引导大模型得出最终答案。一个有效的思维链应具备逻辑性A步骤之间推理严谨、符合逻辑、全面性B涵盖问题的主要方面和关键因素、可验证性C中间步骤可以被检查或评估其正确性以及可行性D推理路径在现实或给定约束下是合理且可实现的。这些特点共同保证了思维链的有效性和可靠性。以下关于大模型与小模型的描述中正确的有哪几项A、小模型适用于数据量较小、计算资源有限的场景B、大模型具有更强的表达能力和更高的准确度C、小模型具有轻量级、高效率、易于部署等特点D、大模型适用于数据量较大、计算资源充足的场景答案ABCD解析大模型和小模型各有其适用场景和特点。小模型A参数量少对数据和算力要求低易于训练和部署C。大模型D通常在海量数据和强大算力上训练具有更强的表征能力和潜力达到更高的准确度B尤其在复杂任务上。这些描述都是对大、小模型特点的准确概括。若要面向对话问答场景构建和业务相关的问答助手在模型选型阶段可选择如下哪些开源模型A、LLaMA-2B、MidjourneyC、DALL-E2D、Bloom答案AD解析对话问答助手需要基于语言理解和生成能力强的模型。LLaMA-2A和BloomD都是开源的、能力强大的大语言模型适用于对话和问答任务。MidjourneyB和DALL-E2C是文本到图像生成模型不具备对话功能因此不适用于问答助手场景。各大公司在推出自家的大模型系列的时候也预见了模型越大部署所需算力越大的瓶颈故给出了模型的量化版本这些量化版本模型对哪些模型部署推理的场景更加友好A、端侧部署B、云端部署C、集群部署D、边缘侧部署答案AD解析模型量化通过降低参数精度如从FP16到INT8来减小模型大小和计算量从而降低资源消耗。这对于资源受限的部署环境尤为重要。端侧部署A如手机、嵌入式设备和边缘侧部署D如边缘服务器、IoT网关通常计算、内存和功耗预算有限量化模型能显著提升其部署的可行性。云端B和集群C部署虽然也受益于量化带来的效率提升但它们通常拥有更充裕的算力资源对量化的依赖性不如资源严格受限的端侧和边缘侧场景强因此量化模型对A和D场景“更加友好”。