Hardware Curriculum Designs
Hardware Curriculum Designs硬件技术课程设计要求
教学目标
使学生能够对计算机硬件技术某个方面有深入的研究
具有一定的计算机硬件设计或应用能力
具有计算机底层软硬件技术相结合的编程开发能力
课程设计内容
基于Logisim完成MIPS单周期CPU的硬件设计
掌握基于MARS MIPS指令集的汇编语言设计
使用插入排序算法进行测试联调
一、 设计题目 单周期八指令MIPS CPU仿真搭建以及测试
二、 设计目的
使用logisim完成单周期八指令MIPS CPU仿真设计。
复习回顾计算机组成原理的课程内容。
培养计算机硬件设计或应用能力。
学习了解汇编语言及其使用。
使用汇编语言完成单周期八指令MIPS CPU测试。
三、 设计原理1. 定长指令周期 本实验采用了定长指令周期,所有指令均在一个时钟周期内完成,即CPI=1。在实际应用中往往不会采用采用这种方案,原因是其效率低下,整体性能取决于最慢的指令,导致时钟周期过长。
与定长指令周期相对应的是变长指令周期,变 ...
Designs of Computer Network
Designs pf Computer Network —— Static Route Configuration《计算机网络课程》课程设计
一个单位从ISP申请到一个公网IP地址:202.196.78.123,单位内部的网络拓扑如图1所示,该单位拟采用专用网地址块172.20.0.0/16为各部门分配IP地址,各部门对IP地址的需求已经标注在图1中。请完成以下任务。
Q1为每一个部门分配地址块,并详细说明这样分配的理由和分配的过程。
采用CIDR无分类编址法对地址进行分配,通过公式$log_2(num)$即可得到地址块的大小,num为主机数量;再通过公式 网络前缀长 = 32 - 地址块长度 得到地址掩码。
部门
主机数
地址块长度
网络前缀
上游路由器
地址掩码
A
100
7
/25
RB
255.255.255.128
B
100
7
/25
RB
255.255.255.128
C
50
6
/26
RC
255.255.255.192
D
200
8
/24
RC
255.255.255 ...
Designs of Database System
Designs of Database System ——Paper++《数据库基础》课程设计
1 设计目的 《数据库基础》课程设计是计算机科学与技术专业集中实践性环节之一,旨在让同学们加深对数据库基础理论和基本知识的理解,掌握设计数据库管理系统的基本方法,锻炼运用知识解决实际问题的动手能力。
2 任务与要求 要求学生从给定的设计题目中进行选择,进行需求分析,概念设计、逻辑设计,数据库设计;完成表结构、表之间关联,视图定义、触发器定义、索引以及安全性的实现;用SQL语句在SQLite系统中实现数据库的数据输入、查询、更新和输出;给出实现效果截图及部分测试结果。
3 个人文献管理系统—Paper++3.1 引言 随着我在专业学习上不断的深入,以及个人兴趣的发展,我开始关注人工智能领域下的自然语言处理方向,决定将这个方向作为自己今后学习研究的主要方向,并且开始做一些基础的科研工作。在这些科研工作中往往需要阅读大量的学术文献,越来越多的文献使得这种简单的管理方式不足以满足我的要求。除此之外,想成为优秀的科研人员需要我养成定时阅读论文的习惯。目前 ...
Designs of C Programming
Designs of C Programming —— MNIST Handwritten Digit RecognitionMNIST Handwritten Digit Recognition
一. 题目意义和设计思想1、题目意义 人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能从诞生以来,理论和技术日益成熟,应用领域也不断扩大,可以设想,未来人工智能带来的科技产品,将会是人类智慧的“容器”。人工智能可以对人的意识、思维的信息过程的模拟。人工智能不是人的智能,但能像人那样思考、也可能超过人的智能。
随着人工智能技术的发展,行业中里程碑式的成就AlphaGo一下引爆了人工智能这个话题,越来越多的人开始关注并投入到这个行业中。人们开始关注人工智能的发展和未来,许多与人工智能有关的话题在反复的被讨论着。
我的选题“手写数字识别”正是人工智能中较为基础,入门的应用之一。模型通过训练可以实现对人类 ...
Singular Value Decomposition
奇异值分解 Singular Value Decomposition
奇异值分解的定义与性质定义与定理$$A = U\Sigma V^T$$A是任意矩阵($m\times n$),连方阵都不要求 。$U$是正交矩阵orthogonal matrix($m\times m$),列向量被称为左奇异向量$V$是正交矩阵orthogonal matrix($n\times n$),列向量被称为右奇异向量$\Sigma$是矩形对角矩阵rectangular diagonal matrix($m\times n$),所有元素非负,且按照降序排列$\Sigma = diag(\sigma_1, \sigma_2,…,\sigma_p)$$\sigma$为奇异值
奇异值分解定理:任意矩阵A一定存在奇异值分解
紧奇异值分解和截断奇异值分解$A = U\Sigma V^T$被称为A的完全奇异值分解full SVD, 紧奇异值分解compact SVD是与原始矩阵等秩的奇异值分解;截断奇异值分解truuncate SVD是比原始矩阵低秩的奇异值分解
$A = U\Si ...
K-Nearest Neighbour
K-Nearest Neighbor K最近邻
KNN find a k nearest examples(neighbour) and vote for its prediction.In the picture, we want to classify green circle. If $k=3$, green circle belongs to the red triangle class. If $k=5$, green circle belongs to the blue square class.
AdaBoost
AdaBoost Algorithm 自适应提升IntroAdaboost is the abbreviation of adaptive boosting.Adaboost combines plenty of weak classification models to form a strong classification.Adaboost usually use one layer decision tree as weak claasification.
Adaboost (for binary classification)
data $T = {(x_i, y_i)}_{i=1 \sim n}$
weight of data $w_i$
weight of classifiers $z_i$
weighted error rate $e_m$
$$Initialization \ sampling \\ \ \ \ \ \ \ \ D_1 = (w_1^{(1)}, w_2^{(1)}…w_n^{(1)}) \fo ...
EM Algorithm
EM Algorithm EM算法
EM algorithm is a iterative optimization algorithm. EM is the abbreviation of expectation maximization. EM do not apply for all the optimization problems.
Remember! EM always converge but it can be a local optima.
EM applies for GMM, K-Means clustering, HMM, etc.
Jensen’s Inequalityconvex function $f, f’’ > 0$; concave function $f, f’’<0$$E[f(x)] \geq f(E[x]) \ \ \ \ \ f$ is convex$E[f(x)] \leq f(E[x]) \ \ \ \ \ f$ is concaveIf and only if $x$ is constant equal sign is ...
Probability Classification Model
Probability Classification ModelBasic Problem:$w_1,w_2$,sample $x \in{w_1,w_2}$, $P(w_1|x),P(w_2|x)=?$Classification Problem:If $P(w_1|x)>P(w_2|x)$, then $x\in w_1$If $P(w_1|x)<P(w_2|x)$, then $x\in w_2$
$P(x|w)$ – Conditional probability of x given w$P(w|x)$ – Posterior probability of x given w$P(w)$ – Prior probability of w
WARNING: Prior probability can be decisive in certain circumstances.
Naive Bayesian 朴素贝叶斯blog
Gaussian Discriminative Analysis 高斯判别分析 GDAblog
Gaussian Mixture M ...
Gaussion Mixture Model
Gaussian Mixture Model GMM 高斯混合模型
Gaussian mixture model is a combine of multiple Gaussian models. These Gaussian models mixture according to ‘weight’ $\pi$. The picture is a mixture of two models.
GMM$$\left{\begin{array}{l}P(X|c) = \sum\limits_{k=1}^K\pi_kN(x^{(n)}|\mu_k, \Sigma_k) \N(x^{(n)}|\mu_k, \Sigma_k) = \frac{1}{(2\pi)^{\frac d2}|\Sigma_k|^{\frac12}}exp[-\frac12(x^{(n)}-\mu_k)^T\Sigma^{-1}(x^{(n)}-\mu_k)] \\sum\limits_{k=1}^K \pi_k= 1\end{array}\right.$$
$\pi ...