AIGC-interview/CV-interview/LLMs-interview面试问题与答案集合仓

财富   2024-07-22 14:36   美国  

转载自

https://github.com/315386775/DeepLearing-Interview-Awesome-2024?tab=readme-ov-file

DeepLearning-Interview-Awesome-2024   
深度学习-访谈-真棒-2024   

本项目涵盖了大模型(LLMs)专题计算机视觉与感知算法专题深度学习基础与框架专题自动驾驶、智慧医疗等行业垂域专题手撕项目代码专题优异开源资源推荐专题共计6大专题模块。我们将持续整理汇总最新的面试题并详细解析这些题目,除面向面试的场景外我们的题目还来源于对最新学术论文创新点的思考,希望能成为大家学术科研、工作创新、offer面试路上一份有效的辅助资料。

项目简介

2024算法面试题目持续更新,具体请 follow 2024年深度学习算法与大模型面试指南,喜欢本项目的请右上角点个star,同时也欢迎大家一起共创该项目。

该项目持续更新:

  • 本文录入题目的原则:高新深,其中高是指-各大厂公司近年高频算法面试题,新是指-题目要新紧跟学术和工业界的发展,比如录入了大量大模型领域的面试题,深是指-题目要有一定的内容与深度,可以引人思考,比如面向业务场景改进的面试题,来源于论文创新点的思考;

  • 目前录入列表的题目,存在部分没有答案解析的题目,或者解析内容不全的题目,我们会尽快补上所有解析;

  • 目前录入列表的顺序,没有先后、频次、难度、细类别等维度信息,后续会再给予更多维度更详细的分类;

更多干货

  • 欢迎关注微信公众号:码科智能,每日更新大模型相关开源项目/代码指南/实用教程等内容;

  • 欢迎添加作者微信,交流探讨行业相关内容,同时可辅助修改简历;

  • 另公众号已搭建大语言模型聊天助手(集成Kimi及多Agent工作流),可帮你查询天气、定点推送新闻、文章总结、代码理解及其他常见聊天功能,欢迎体验。


六大专题及题目列表


🏆大模型(LLMs)专题



  • 大语言模型

01. 模型微调:大模型常用微调方法LORA和Ptuning的原理,与传统fine-tuning微调有何不同?
30. 模型微调:Instruction Tuning与Prompt tuning方法的区别?
07. 模型微调:监督微调SFT后LLM表现下降的原因
18. 模型微调:大模型微调的LORA怎么训练?
19. 模型微调:LORA的矩阵怎么初始化?为什么要初始化为全0?
33. 模型微调:进行SFT操作的时候,基座模型选用Chat还是Base?
03. 模型结构:为何现在的大模型大部分是Decoder only结构
15. 模型结构:你能否概括介绍一下 ChatGPT 的训练过程?
16. 模型结构:在大型语言模型 (llms) 上下文中的标记是什么?
40. 模型结构:GPT3、LLAMA的Layer Normalization 的区别是什么?
04. 模型优化:如何缓解 LLMs 复读机问题
14. 模型优化:在大型语言模型 (llms) 中减少幻觉的策略有哪些?
29. 模型优化:如何提升大语言模型的Prompt泛化性?
34. 模型优化:开源大模型进行预训练的过程中会加入书籍、论文等数据,这部分数据如何组织与处理?
38. 模型优化:如何解决chatglm微调的灾难性遗忘问题?
10. BERT用于分类任务的优点,后续改进工作有哪些?
23. BERT的预训练任务有什么?为什么引入下一个句子预测任务?
37. BERT的预训练过程中是否使用了位置编码和注意力机制?
38. LangChain 通常被用作「粘合剂」,将构建 LLM 应用所需的各个模块连接在一起,请介绍下其核心模块?
39. 模型优化:为了提升Llama 3 的推理效率,模型结构采用分组查询注意 (GQA),简述该模块?
40. 模型架构:llama2中使用的注意力机制是什么?
41. 模型架构:在预训练阶段,几种主流大模型的 Loss 了解过吗? 有哪些异同?
42. 模型架构:旋转位置编码(RoPE)和ALiBi位置编码分别的特点和应用场景?
43. 模型架构:Qwen-VL模型的整体网络架构包括哪三个组件?请分别介绍它们的作用和来源?
44. 模型架构:对于Qwen-VL模型的输入,图像是如何处理的?它们经过视觉编码器和适配器后得到了怎样的特征序列?


  • 视觉模型

01. Stable Diffusion里是如何用文本来控制生成的?
21. Stable Diffusion相比Diffusion主要解决的问题是什么?
22. Stable Diffusion每一轮训练样本选择一个随机时间步长?
39. Stable Diffusion的训练过程和预测过程是什么样的?
11. 基座模型:SAM分割一切网络中的Promot类型以及如何输入进网络
26. 基座模型:训练通用目标检测器常会使用多源图像进行训练,如何处理新类别歧视?
27. 基座模型:Grounding DINO可以根据文字提示检测任意目标,简述网络的基本架构?
28. 基座模型:Grounding DINO如何进行零样本迁移,比如要检测电路板中的电容电阻?
29. 基座模型:SAM网络轻量化的几种思路,及代表性工作?
30. Stable Diffusion XL是一个二阶段的级联扩散模型,简述其工作流?
31. 将文本与图像的语义信息进行Attention机制,而Text Condition是三维的,而Latent Feature是四维的?
32. 举例介绍SDXL模型的文本编码全过程?
33. 在SD 1.4和SD 1.5的经典失败案例中,生成图像中的猫出现头部缺失的问题的本质原因及优化方案?
34. DINOv2创建了一个新的高质量数据集, 其中处理过程中用到了去重和检索,简述其步骤?
35. 简述DINOv2训练中 Image-level 和 Patch-level 的目标函数?
36. 视觉预训练MAE模型decoder中的unmask和mask部分分别对应的隐向量是什么?


  • 通用问题

01. 为什么Transformer中使用LayerNorm而不是BatchNorm?
06. Transformer为何使用多头注意力机制
32. Transformer中的Attention计算复杂度以及如何改进?
12. Transformer的层融合是如何做到的,其中Residue Network与Layer Norm如何算子融合
41. MHA多头注意力和MQA多查询注意力的区别?
17. Adaptive Softmax在大型语言模型中有何用处?
31. 知识蒸馏是将复杂模型的知识转移到简单模型的方法,针对知识蒸馏有哪些改进点?
42. 推理优化技术 Flash Attention 的作用是什么?
43. ZeRO,零冗余优化器的三个阶段?
44. Mamba 对 RNN 做了哪些改变,从而在GPU上可以算的比较快?
45. 多头注意力机制MHA是Transformer模型中的核心组件, KV Cache和GQA优化的核心思想?
46. BPE(Byte Pair Encoding)、Tokenization如何影响模型性能和训练过程?
47. 100B以上的大模型预训练中出现loss spike的原因及解决方法?


  • 多模态模型/强化学习/AGI等

01. 举例说明强化学习如何发挥作用?
28. 如何理解强化学习中的奖励最大化?
24. 领域数据训练后,通用能力往往会有所下降,如何缓解模型遗忘通用能力?
25. 在大型语言模型 (llms)中数据模态的对齐如何处理?
35. 你能提供一些大型语言模型中对齐问题的示例吗?



🍳计算机视觉与感知算法专题



  • 常见问题

01. 大卷积核:在CNN网络中更大的核是否可以取得更高的精度?
02. 优化算法:匈牙利匹配方法可用于正负样本定义等问题中,介绍其实现原理
03. 损失函数:Focal loss的参数如何调,以及存在什么问题
04. 模型轻量化:举例一些从参数量、浮点运算量、模型推理时延进行优化,具有代表性的轻量化模型?
05. 图像处理:ORB特征提取的缺陷及如何进行改进
06. 通用模块:FPN的特征融合为什么是相加操作呢?
07. 通用模块:如何理解concat和add这两种常见的feature map特征融合方式?
08. 通用模块:Transformer的注意力机制常用softmax函数,可以使用sigmoid代替吗?
09. 通用模块:在设计轻量化模型时,有哪些一些基本的原则?concat和add相比哪个更耗时?
10. 通用模块:轻量级CNN网络,常采用深度可分离卷积,其中的点卷积FLOPs和MAC如何计算?
11. 损失函数:Focal loss支持0/1这样的离散类别标签,如果标签是0~1连续值该如何处理?
11. 损失函数:Focal loss过多关注难分样本,因此会受到离群点的影响,怎么同时衰减易分样本和特别难分的样本呢?


  • 目标分类

01. 损失函数:人脸识别任务中,ArcFace为什么比CosFace效果好
02. 通用模块:介绍CBAM注意力
03. 通用模块:局部注意力如何实现
04. 数据增强:介绍mixup及其变体
05. 场景问题:视觉任务中的长尾问题的常见解决方案
06. 场景问题:如果在分类任务中几个类别有重叠(类间差异小)怎么办,如何设计网络结构
07. 场景问题:在A场景下进行目标的标记及训练,如何在B场景下取得好的效果?
08. 场景问题:如何更好的训练一个二分类任务,其中数据有80%的标注正确,20%标注失败
09. 基座模型:CLIP的核心创新点简介,其如何处理文本输入
10. 基座模型:ViT、DEIT是如何处理变长序列输入的?
11. 基座模型:VIT中对输入图像的处理是如何将patch变化为token的?


  • 目标检测

01. 样本匹配策略:FCOS训练阶段如何解决重叠样本造成的GT不一致问题
02. 样本匹配策略:Centernet为什么可以去除NMS,以及正负样本的定义
03. 样本匹配策略:Yolov5的正负样本定义,一个目标是否会被分配到不同的FPN层中
04. 样本匹配策略:Yolov7的正负样本定义
05. 样本匹配策略:Yolov8的正负样本定义
06. 样本匹配策略:Yolov9的正负样本定义
07. 样本匹配策略:Yolov1的正负样本定义
08. 样本匹配策略:DETR用二分图匹配实现label assignment,简述其过程
09. 样本匹配策略:Anchor-free的target assign怎么解决多个目标中心点位置比较靠近的问题
10. 样本匹配策略:Anchor-Based检测器在正负样本标签分配阶段,如何去除对anchor的依赖?
11. 样本匹配策略:目标检测如何选取正负样本将会极大的影响最后的检测效果,举例ATSS如何处理的?
12. 损失函数优化:FCOS的损失函数中centerness的作用
12. 样本匹配策略:FCOS构建正负样本阶段,如果大尺度和小尺度的重叠,比如人和手中的苹果,怎么处理?
12. 损失函数优化:FCOS使用 area-based 方法解决正样本分配的歧义性问题,其对大目标不太友好?还有没有更优的方案?
13. 损失函数优化:有哪些可以解决目标检测中正负样本不平衡问题的方法
14. 细节问题:Yolov5与Yolov4相比neck部分有什么不同
15. 细节问题:Yolov5的Foucs层和Passthrough层有什么区别
16. 细节问题:Yolov5中objectness的作用,最后输出的概率分数如何得到
17. 模型问题:介绍DETR中从图像输入到Encoder处理的序列化数据的过程。
18. 解码问题:解释YOLOv5模型输出(1, 25200, 85)的含义,及解码过程?
19. 解码问题:解释Centernet模型输出offset/scale/heatmap三个头的含义,及解码过程?
20. 场景问题:目标检测中旋转框IOU的计算方式
21. 场景问题:如何修改Yolov5目标检测,从而实现旋转目标检测?
22. 场景问题:在目标Crowded的场景下,经常在两个真正目标中间会出现误检的原因?
23. 场景问题:通过设置更多的先验anchor能否改善小目标及非正常尺寸目标的性能,除计算速度外还存在什么问题
24. 场景问题:目前检测常需要NMS非极大值阈值算法作为后处理,有没有什么可以避免NMS后处理的方案?
25. 模型问题:如何理解DETR中的object query的概念,要为 cross attention 提供更好的位置先验该如何设计模型?


  • 目标分割

01. 模型问题:在Unet网络结构中,四次降采样对于分割网络到底是不是必须的?
02. 模型问题:为什么UNet++可以被剪枝,怎么去决定剪多少?
03. 模型问题:分割一切网络SAM如何处理目标的分割掩码输出?
04. 模型问题:SAM在本地的模型推理效果明显差于线上web版本,有什么方式可以优化其效果?
05. 基座模型:VIT直接用于分割检测等预测密集型的任务上存在什么问题?
06. 模型问题:分割网络采用编解码的方式,在解码器中使用反池化/空洞卷积/双线性插值对特征图进行上采样的区别?
07. 模型问题:分割网络编码部分常用的最大池化和下采样的组合实现了不变性,但对定位精度有一定的影响,与一个全连接条件随机场(CRF)相结合实现定位的优化?
08. 模型问题:SAM中的prompt_encoder部分支持几种类型的输入,针对点提示如何编码?
08. 模型问题:matting与传统分割的区别,介绍matting的原理?


  • 3D目标检测

01. 单目3D:FCOS3D训练阶段如何定义正负样本
02. 单目3D:简述FCOS3D的head部分的结构,以及预测2.5D中心点offset的参考点定义?
03. 单目3D:简述FCOS3D的解码过程,及其中在2D图像上的三维目标框如何获取?
04. 单目3D:FCOS3D及大多数单目3D都是基于孤立的实例或像素来估计深度,而忽略了不同物体之间的几何关系,你有什么改进策略?
05. 点云3D:PointPillars将点云转换为稀疏伪图像的过程,其中Scatter运算的步骤详述?
06. BEV:PV2BEV视角变换的几种方式,基于模型的方式除相机内外参外还至少需要哪些参数?


  • 对抗网络/视频理解/图像增强/深度估计等

01. 对抗网络:GAN中的模式坍缩的识别和解决?
02. 深度估计:简述深度估计任务中常用到的光度重建损失?



⏰深度学习基础与框架专题



  • Pytorch常用操作及问题

01. Pytorch 训练时经常会合并多个数据集,ConcatDataset具体做了什么?
02. Pytorch 的多卡BN如何处理?
03. Pytorch DataLoader的主要参数有哪些
04. Pytorch 代码中如何尽量避免.to(device)的操作?
05. Pytorch 中nn.Identity()/.chunk/.masked_select/.gather操作的应用场景?
05. Pytorch 中nn.Identity()/.chunk/.masked_select/.gather操作的应用场景?
06. PyTorch 节省显存的常用策略
07. PyTorch 的Modules一些属性问题
08. PyTorch 中的 ModuleList 和 Sequential的区别和使用场景
09. PyTorch 中 ConcatDataset的使用场景及用法
10. PyTorch 中 nn.Upsample和interpolate插值的区别
10. PyTorch 中nn.Upsample和interpolate插值的区别
11. PyTorch 中 dataset与 dataloder的区别,自定义dataset需要哪些操作?
12. PyTorch 中 主要且常用的归一化操作有BN,LN,IN,GN,介绍下他们的区别?


  • 那些常用的训练框架

01. TensorRT 为什么能让模型跑的更快
02. MMengine 的一些特性,其基础配置包含哪些内容
03. MMdetect 中添加一个自定义的backbone网络,需要改哪些代码
04. MMCV 中Hook机制简介及创建一个新的Hook
05. Pytorch Lighting的设计哲学,及你觉得好用的点
06. MMdetect 在构建模型结构时具备灵活便捷的特点,比如 ResNet style 可选参数允许 pytorch 和 caffe,两者有什么区别?
07. 简述 MMdetection 中 Box Assigner分配器的两种方式?
08. 简述 MMdetection 中 正/负样本采样器的类型,比如RandomSampler?
09. torch.onnx.export()中该如何设置 input_names, output_names, dynamic_axes?
09. torch.onnx.export()中该如何设置 input_names, output_names, dynamic_axes?
10. 使用 torch.onnx.is_in_onnx_export()来使模型在转换到 ONNX 时有何不同的行为?
11. 大模型训练一般都采用torch2.0以上版本,其中torch.compile可加速训练,介绍下如何使用以及其是否对普通的python代码起作用?


  • 深度学习常见问题

01. 算子问题:卷积和BN如何融合提升推理速度
02. 算子问题:神经网络引入注意力机制后效果降低的原因
03. 算子问题:激活函数的对比与优缺点
04. 算子问题:Transformer/CNN/RNN的时间复杂度对比
05. 算子问题:深度可分离卷积
06. 算子问题:CNN和MLP的区别
06. 算子问题:max pooling如何操作?什么场景下 average 比 max pooling 更合适
07. 损失函数:损失函数的应用-合页损失
08. 损失函数:为什么交叉熵可以作为损失函数
09. 优化算法:优化算法之异同 SGD/AdaGrad/Adam
10. 优化算法:有哪些权重初始化的方法
11. 优化算法:深度学习中为什么不对 bias 偏置进行正则化?
12. 优化算法:正则化为什么可以增加模型泛化能力
13. 优化算法:为什么Adam常常打不过SGD?症结点与改善方案?
14. 常见问题:深度学习训练中如何区分错误样本和难例样本
15. 常见问题:深度学习模型训练时的Warmup预热学习的作用
16. 常见问题:考虑一个filter[-1 -1 -1; 0 0 0; 1 1 1] 用于卷积,该滤波器将从输入图像中提取哪些边缘
17. 场景问题:深度学习模型中如何融入传统图像处理的特征?直接拼接融合有什么问题?
18. 场景问题:多任务学习中各个任务损失的权重应该如何设计呢?
19. 场景问题:如何处理不平衡的数据集?
20. 场景问题:如何将大模型有效地切割成若干个子模型?如何将切割后的子模型分配到多个节点上进行并行训练?
21. 优化问题:神经网络权重为什么不能初始化为0,而逻辑回归参数可以初始化为0?



🛺自动驾驶、智慧医疗等行业垂域专题



  • 自动驾驶

01. 相机内参和外参的含义?如果将图像放大两倍,内外参如何变化?
02. 从世界坐标系到图像坐标系的变换关系?
03. 放射变换与逆投影变换分别是什么
04. 卡尔曼滤波Q和R怎么调
05. 如何理解BEV空间及生成BEV特征
08. 栏杆检测为什么不用网络学习
09. 卡尔曼滤波怎么用同一个filter同时适配车辆横穿的场景
10. BEV特征怎么进行数据增强
11. 辅助驾驶场景中,模型对60米之内的中大目标预测的bbox坐标不稳定,有较大的抖动问题,导致测距不稳定,怎么解决?
12. 辅助驾驶场景中,对公交站、房屋顶等特定背景误检,怎么解决?
13. 辅助驾驶场景中,大于100m的车辆车型分类出现跳动怎么解决?
16. 解释KF中的噪声矩阵含义。运动方程中估计噪声是变大还是变小?修正方程中估计噪声是变大还是变小?
20. 车道线检测的任务通常采用分割方案,如何将方案降级至检测,甚至是车道线分类?
21. 车道线检测的任务中如何处理异行线,比如道路交叉口?
24. 简述BEVformer的Decoder逻辑?
25. BEVFormer中的Spatial Cross-Attention的步骤?
26. 车上多个摄像头图像投影到2D平面如何实现?
27. 假如你的车子有4个激光雷达,你如何设计点云分割算法?
28. 假如当前需要你把场景里的砖头分割出来,靠点云分割能否正确识别?
29. 点云中的水雾怎么去除?
30. 车宽测距和接地点测距分别使用了什么样的先验知识?这些先验如果不成立的时候能有什么手段来放宽限制?
31. 车辆行驶过程中 Pitch 角度估计的三种方法?
32. 如何消除一堆3D点云中的角点?
33. 如何将 3D 世界坐标点转换为 2D 图像坐标?
34. 单目3D目标检测的预测信息包含哪些,在预测3D框中心偏差时针对截断目标如何处理?
35. 通过几何关系估计深度过程中,由于高度的误差使得深度的估计不确定性高,如何缓解?
36. Nuscenes数据集中相机传感器配置,及标注内容包含哪些?
37. 简述BEVformer模型在特征提取过程中,张量流的变换情况?
38. 简述生成BEV特征图的几种方式,其中LSS的lift操作具体做了什么?


  • 智慧医疗

01. 数据标注:医学影像由于标注专业性差异,出现多人标注不一致情况怎么解决?如何用算法的方式减少误差?
02. 模型问题:模型中如何添加病史信息来增强最终的分类效果?
03. 模型问题:分割存在硬边缘问题,比如在视网膜血管分割中,如何优化边缘分割效果??
04. 模型问题:多个物体堆叠会形成潜在目标被部分遮挡,而目标的完整性又是进一步判断的依据,如何补全被遮挡目标的分割边界?
05. 模型问题:基于数字病理切片的目标检测算法会受到扫描成像设备的影响,比如扫描过程中的离焦模糊、运动模糊等,请问有什么可行的优化方案?


  • 自然语言处理/智慧商业/搜广推

01. 自然语言处理:NLP中给定当前query和历史query以及对应实体,如何对当前query的实体进行建模?
02. 机器学习:银行经理收到一个数据集,其中包含数千名申请贷款的申请人的记录。AI算法如何帮助经理了解他可以批准哪些贷款?


  • 场景实战

01. 如何在标注存在错误的数据上训练模型?
02. 视频与图像中的目标检测具体有什么区别
03. 举出几种光流方法,说明LK光流的建模方式?
04. 如何在数据量十分有限,但特征数量极多的情况下选出一套合适的特征组合?
05. SAM的点提示和框提示输入尺寸,框提示是否支持多个框?
06. 为什么 larger batch size 对对比学习的影响比对监督学习的影响要大?
07. 提供一个图片数据集,其中一部分是噪声图片也就是标签是错误的,请问怎么训练模型尽可能把效果达到最好?
08. 现在要预测目标在图像上的旋转角度,比如遥感影像场景下的车辆目标旋转角度,你该如何优雅的编解码以实现更好的预测?
09. 鱼眼相机具备更大的视场角,因此常用在一些监控场景下,如何在鱼眼图像下做检测或分割任务?
10. 昼夜跨域车辆重识别车辆重识别如何处理,即在包括白天和夜间域在内的不同域中识别相同的车辆?



🏳‍🌈手撕项目代码专题



01. Pytorch 实现注意力机制、多头注意力
02. Pytorch 搭建一个基础模块,包含Conv+Bn+Relu
03. Pytorch 搭建一个CNN卷积神经网络
04. PyTorch 卷积与BatchNorm的融合
05. PyTorch 分割网络损失函数Dice Loss的代码实现
06. PyTorch 实现Focalloss
07. Pytorch 实现BN批量归一化
08. Pytorch 针对L1损失的输入需要做数值的截断,构建CustomL1Loss类
08. Pytorch 实现SGD优化算法
08. Pytorch 实现Triplet Loss
08. Pytorch 实现三元损失
09. Numpy 广播机制实现矩阵间L2距离的计算
10. Numpy 输入boxA, boxB实现bbox_iou的计算
11. Numpy 输入两组坐标实现IOU的计算
12. Numpy 实现Focalloss
13. Numpy 实现非极大值抑制NMS
14. Numpy 实现改进版本的非极大值抑制Soft-nms
15. Numpy 实现一个函数来计算两个向量之间的余弦相似度
16. Numpy 实现Sigmoid函数
17. Numpy 实现Softmax函数
18. Numpy 实现K-means聚类
18. Numpy 完成稀疏矩阵的类,并实现add和multiply的操作
19. C++ 描述图像resize的过程并实现
20. C++ Conv2D卷积的实现
21. Numpy 实现线性回归损失函数最小二乘法,输入直线对应的坐标点,输出损失
22. Numpy 实现线性回归,输入学习率、迭代次数及坐标点
23. Numpy 实现目标实数类别的one-hot编码
24. Numpy 实现交叉熵损失函数
25. Pytorch 实现图像归一化的操作
26. Numpy 实现maxpooling操作
27. Pytorch 使用torch.utils.data.Dataset类来构建自定义的数据集,根据文件名后缀来创建一个图像分类的数据集
28. Python 实现逆透视变换IPM(鸟瞰图)
29. Numpy 实现两个矩阵的乘法,并验证结果是否与PyTorch中的torch.matmul相同
30. PyTorch 构建一个自定义层,该层实现一个简单的LReLU激活函数
30. PyTorch 编写一个数据增强类,实现随机水平翻转和通道变换



🚩优异开源资源推荐专题




01. 多个优异的数据结构与算法项目推荐
02. 大模型岗位面试总结:共24家,9个offer
03. 视觉检测分割一切源码及在线Demo
04. 动手学深度学习Pytorch
05. 一种用于保存、搜索、访问、探索和与您喜爱的所有网站、文档和文件聊天的工具
06. 收集一些免费的ChatGPT镜像站点
07. 关于大型语言模型(LLM)的一切
08. 深度学习调优指南中文版
09. 多模态大型语言模型的最新论文和数据集集锦
10. ChatPaper:ChatGPT来加速科研流程的工具
11. 消费级硬件上进行LLaMA的微调
12. Stability AI提供的一系列生成模型
13. 自监督方式学习强大视觉特征的框架DINOv2
14. 快速的场景分割FastSAM
15. 语言大模型面试题
16. Awesome Chinese LLM 整理开源的中文大语言模型
17. 科技爱好者周刊,集结优秀的开源项目,每周五发布



人工智能与量化交易算法知识库
黄含驰的人工智能、优化与量化交易算法知识库,干货满满,不容错过!
 最新文章