精选分类

文章列表

2.9k3 分钟

# Primitive and Reference Types(原始与引用类型) 本节将会介绍一些基本的数据类型及其使用方式,并围绕列表这一核心进行阐释。 # 原始数据类型(Primitive Types) 首先简单提一下变量数据在计算机中的存储方式:无论是数字还是文本,在计算机中均以二进制列进行存储,而程序中的变量类型则指定了二进制列的解释方式。 在Java中,定义一个变量需要指定其变量类型,这相当于在内存中开辟了一段存储变量的二进制空间(当然,我们无法获取到具体的存储地址,这点和C语言不同)。而对变量进行赋值就相当于在这个空间中存储这个值。 上面提到的变量类型可以是:byte, shor
13k11 分钟

本节开始,聚焦的主题由函数转变为数据,包括不同的数据类型、类与对象、数据处理以及面向对象编程等内容。 注:本节内容大致对应国内的数据结构课程,可结合相关资源进行学习。 # 原始数据类型(Native Data types) 在python中,每一个值的类型都由一个类(class)来定义(如int,float,str等)。具有相同类型的值可以执行相同的操作或进行组合(如四则运算等)。 而python中内置了一些数据类型(比如上面的这些例子),其中数值类型包括int(整数)、float(浮点数)和complex(复数)三类。【当然,python语言不需要特别声明原始数据类型,而会根据值的格式
20k18 分钟

说明:(既然有了概率论,那么也顺便把数分III梳理一下~)考虑了一下,还是以题目汇编的形式进行总结复习,通过解题梳理知识点。(题目来源:课后习题、答案书题目、期中考试题目) ~~另注:由于期末考试重点考后三章(二十二十二章),所以前四章题目会相对缩减。~ sry,时间不够了,后面几章的题目量可能还会少些…… 多元函数极限与连续: 请写出下面这个平面点集的聚点和界点: {(x,y)∣y=sin⁡1x,x>0}\{(x,y)\mid y=\sin\frac{1}{x},x>0\} {(x,y)∣y=sinx1​,x>0} 聚点和界点均为
14k13 分钟

说明: 本题集题源为老师上课课件、练手题以及教材课后习题,仅供参考。实则为无法预测的命运之舞台doge 逻辑与推理相关题目: 下面描述的问题哪个不属于因果分析的内容? 如果商品价格涨价一倍,预测销售量(sales)的变化 如果广告投入增长一倍,预测销售量(sales)的变化 如果放弃吸烟,预测癌症(cancer)的概率 购买了一种商品的顾客是否会购买另外一种商品 ❌属于干预 ❌属于干预 ❌属于反事实 ✔️属于相关性分析(“关联”),未达到因果分析层次。(上面两个阶段才是) 应用归结法证明以下命题集是不可满足的。 α∨ββ→γ¬α∧¬γ.\begin{align}
9.6k9 分钟

一、多项选择题(5分/题x10题=50分) 下列关于线性表的说法中,正确的有: 顺序表适合随机访问 链表可以动态分配内存 单链表可以直接访问任意节点 顺序表在插入和删除时效率较低 ✔️ 顺序表(如数组)在内存中是连续存储的,故可以进行随机访问 ✔️ 链表的节点通常是在程序运行时根据需要动态创建的 ❌ 单链表不支持随机访问,必须从头指针开始,沿着指针链逐个向后遍历 ✔️ 在顺序表中插入或删除一个元素时,为了保持内存的连续性,通常需要移动大量元素,相比链表效率较低 下列操作中,可能导致栈溢出的有: 递归过深 栈内存不足 栈空时进行出栈操作 入栈时超
22k20 分钟

说明:以下题目主要来自许忠好《初等概率论》习题/课后作业题/期中考试题等,仅供参考。 其中部分题目难度较大,作为拓展 or 附加题。(源自某23级学长) 概率空间典型题目: 由于shokax的特性,必须这样设置 事件AAA与BBB相互独立的充要条件为P(A∣B)=P(A)P(A\mid B)=P(A)P(A∣B)=P(A) 必要性不成立:若事件AAA与BBB相互独立,则P(B)P(B)P(B)可能为000,此时P(A∣B)P(A\mid B)P(A∣B)无意义。 若随机事件A,B,CA,B,CA,B,C两两独立,则A∪BA\
12k11 分钟

目前智能体主要分为两类: 角色扮演智能体(Role-playing Agents):使用系统prompt设定智能体角色,让智能体模仿这一角色与用户进行交互; 强化学习智能体(RL Agent):使用强化学习的方式(下面会详细描述)与环境交互,并通过环境反馈更新策略。 多智能体强化学习(MARL): 如果多智能体没有与环境交互,只是调用多个大模型,那么其本质仍为角色扮演。但这种形式再多次交互后智能体会逐渐忘记其初始设定; 现在的智能体除了与环境交互之外,还会附带其他模块,如下图: 记忆:上下文、长短时记忆、规则等 工具:将指令转化为具体操作(可集成) 规划:基于记忆与工具
6.7k6 分钟

# 多模态大模型的基础——视觉编码器(Vision Transformer, ViT) 回顾1:卷积神经网络CNN 回顾2:Transformer架构 在Attention机制出现前,计算机视觉领域主要使用CNN进行图像处理。但是CNN存在以下缺点: 受到归纳偏置的限制:CNN假设图像数据具有局部性和平移不变性,因而其更关注相邻像素间的关系(局部特征),而在处理图像整体特征时存在局限性。 扩展与迁移能力弱:CNN通过多层卷积和池化操作,从低级特征(如边缘)逐步抽象到高级特征(如对象部件、整体物体),而如果要对模型扩展,堆叠网络层会使得优化稳定性降低,因而在处理大规模数据时会受限。 前面
46k41 分钟

快要期末了,笔者发现好多题目不够熟练,故紧急把一些知识点整理成cheatsheet,也相当于复习了。 # 概率空间 样本点、样本空间、随机事件、事件域、样本空间分割的概念(略,看书) 概率的四种确定方法+公理化定义(见下): 非负性:P(A)≥0P(A)\geq 0P(A)≥0; 正则性:P(Ω)=1P(\Omega)=1P(Ω)=1; 可列可加性:当A1,⋯ ,An,⋯A_1,\cdots,A_n,\cdotsA1​,⋯,An​,⋯互不相容,有 P(∑n=1∞An)=∑n=1∞P(An)P(\sum_{n=1}^\i
10k9 分钟

# 神经机器翻译(NMT)——语言模型的基石 传统的统计机器翻译(SMT)通过学习双语平行语料(源语言+目标语言对照)与单语语料,利用极大似然估计函数得到翻译模型(源语言与目标语言词汇对应概率)与语言模型(源语言内部词汇搭配概率)。由这两个模型组成的翻译引擎通过枚举所有翻译的可能并计算每种可能翻译正确的概率,最终确定翻译结果。 SMT的缺点: 需要加入大量人工规则,特征工程复杂,人工成本高 只能看有限上下文,难以捕捉长距离依赖 泛化能力弱,模型对新领域的语料适应性差 因而,在2013年,Nal Kalchbrenner 和 Phil Blunsom 提出了一种用于机器翻译的新型端到端编