7 CopperDong

尚未进行身份认证

纯属巧合

等级
博文 763
排名 2k+

使用Python书写的公式编辑器

0前言最近在导师的引导下,自己使用python写了一个公式编辑器,这里向大家介绍一下,如果需要的可以拿去使用。对于当下的公式编辑器有很多缺陷,例如MathType,不可以一边写latex代码,一边显示对应的公式,个人写的这个程序就做到了这一点,边写latex代码,于此同时就会显示代码对应的图片。当然,博主也是小白,程序也有很多的不足和缺陷,希望使用这个软件的时候,多多见谅。以下将介绍如何使用这...

2019-07-19 09:55:56

Django 2.0实战:博客系统4 用户界面

涉及functionview和class-basedview的用法。搭建基础结构和展示文章数据urls.pyURL参数解释如下:编写View代码配置模板$mkdirtypeidea/templates升级至class-basedview单纯从技术上来说,functionview和class-basedview并没有高低之分,有的仅有对场...

2019-07-16 19:21:23

Django 2.0实战:博客系统3 开发管理后台

使用Django自带的admin来完成管理后台的开发配置admin页面1、创建blog的管理后台blog/admin.py。。。。。。$pythonmanage.pycreatesuperuser创建管理$pythonmanage.pyrunserver测试2、创建Post的管理后台blog/admin.py。。。。。。以上通...

2019-07-16 16:43:32

Django 2.0实战:博客系统2

创建项目pipinstallDjango~=1.11mkdirtypeidea,包含四个基本文件关于requirements.txt有两点需要说明,一是有些团队可能会同时存在一个requirements_dev.txt文件,用来做开发环境的依赖项。二是在requirements.txt上面可以配置PyPI的源,如-ihttp://pypi.doubanio.com/si...

2019-07-15 19:39:06

Django 2.0:创建项目流程

Django是基于MVC(Model-View-Controlller)模式的框架,处理请求的示意图Django文档大体上也分为:Model层、View层、模板层和Form模块。剩下的部分都是功能文档,比如分页和缓存等。创建环境创建虚拟环境激活虚拟环境pipinstalldjango[~=2.0]创建项目根目录:mkdirstudent_housecd...

2019-07-15 15:27:44

Django 2.0实战:博客系统1

功能分析需求列表1、用户端部分:网站需要对SEO友好,具体可参考搜索引擎站长白皮书。另外,需要给搜索引擎提供XML格式的sitemap文件。 博客需要提供搜索功能,搜索范围限定在标题、分类和标签上。博客每天的增量数据为10篇文章。 能够根据某个分类查看所有关于这一分类的文章,分类没有层级的关系,只有一级分类。一篇文章只能属于一个分类。 访问首页时,需要...

2019-07-13 15:57:20

利用Python通过频谱分析和KNN完成iphone拨号的语音识别

原文最近这段时间,学校里的事情实在太多了,从七月下旬一直到八月底实验室里基本天天十二点或者通宵,实在是没有精力和时间来写博客。这周老师出国开会,也算有了一个短暂的休息机会,刚好写点有意思的东西。上周在天津的会议上碰到一个北交的姐们儿,她想利用小波变换来处理失超信号,刚好之前自己就有这个想法,所以回来后就想着把相关的内容好好复习复习,最相关的就是傅里叶分析和小波变换了。数学推导固然重要,但写...

2019-07-11 17:34:16

语音信号处理1

简单历史语音信号处理可以说是从1940年前后Dudley的声码器和Potter等人的可见语音开始的。20世纪60年代初期,由于Faut和Stevens的努力,奠定了语音生成理论的基础,在此基础上语音合成的研究得到了扎实的进展。60年代中期形成的一系列数字信号处理方法和技术,如数字滤波器、快速傅里叶变换(FFT)等成为语音信号数字处理的理论和技术基础。在方法上,随着电子计算机的发展,...

2019-07-10 14:49:13

vue.js简单学习记录

<scriptsrc='http://cdnjs.cloudflare.com/ajax/libs/vue/1.0.26/vue.min.js'></script>生命周期varvm=newVue({data:{a:1},created:function(){}})init:开始初始化 created:实...

2019-07-09 17:05:16

游戏AI-6:A*路径寻找算法

路径寻找设计得不好会让游戏角色看起来很愚笨很不真实。A*算法可以提供有效的办法来解决路径寻找问题。它可以保证在任何起点及任何终点间找到最佳的路径,当然,前提是确实存在这种路径。如果起点和终点间没有障碍物,有明确的视线,那么用A*算法就大可不必了;改用既快速又有效的视线移动算法比较好。如果CPU功能不太强,A*也可能不是最佳替代方案。虽A*很有效,但仍然会耗用不少CPU运算能力,尤其是,如果你必须同...

2019-07-05 10:25:20

游戏AI-5:基本路径寻找及航点应用

寻找路径的问题有很多不同类型。没有一种解决办法可以适用各种类型的路径寻找问题。解决办法和每个游戏特定的路径寻找的需求细节有关。基本的路径寻找基本算法if(positionX>destinationX)positionX--;elseif(positionX<destinationX)positionX++;if(positionY...

2019-07-04 14:13:08

游戏AI-3:群聚

通常在视频游戏中,非玩家角色必须群聚移动,而不是个别行动。比如一群羊在吃草、一群人在镇上的广场闲逛。CraigReynolds在其1987年SIGGRAPH论文《Flocks,Herds,andSchools:ADistrubutedBehavioralModel》中提到的那个算法。基本群聚CraigReynolds的“类鸟群”(boids)群聚算法,产生的运动给人留下的...

2019-07-04 09:32:21

游戏AI-2:移动模式

代码https://resources.oreilly.com/examples/9780596005559/移动模式是制造智能行为幻觉的简单方式。实现移动模式的标准做法是选取想要的模式,再将控制数据填入某个数组或多个数组。控制数据由特定的移动指令组成,比如向前移动再转弯,借此迫使计算机控制的物体或者角色按所需模式移动。利用这些算法,你可以建立圆形、方形、蛇形、曲线以及任何类型的模式,将之...

2019-07-03 17:37:41

游戏AI-1:追逐和闪躲

代码https://resources.oreilly.com/examples/9780596005559/追逐/闪躲问题由两部分组成。首先要做出追或逃的决策判断。其次是开始追或逃,也就是让追击者追猎物,或者让猎物尽可能离追击者远一点,免得被抓到。追逐猎物是最简单、最容易写而且也是最常用的方法,就是在每次的游戏循环中,更新追击者的坐标,让追击者和猎物的坐标离得愈来愈近。这种算法不去管追击...

2019-07-03 16:20:35

强化学习实例12:A3C

代码#coding:utf-8importmultiprocessingimportthreadingimporttensorflowastfimportnumpyasnpimportgymimportosimportshutilimportmatplotlib.pyplotaspltdefpreprocessing_image(obs...

2019-07-02 19:00:43

强化学习实例11:策略梯度法(Policy Gradient)

本实例基于策略梯度的算法来学习“打乒乓球”游戏首先本实例的定义马尔可夫决策过程:状态s:每一时刻的游戏画面 行动a:右边绿色拍,向上或向下 策略:状态为s下,采取行动a的概率强化学习的目标是最大化长期回报期望:其中为策略参数定义目标函数J策略梯度为用Q代替r使用蒙特卡罗法求解使用蒙特卡罗法,方差大。为了模型的稳定,提出Actor-Criti...

2019-06-25 11:46:35

强化学习实例10:Q-Learning

SARASA算法:SARSA算法遵从了交互序列,根据下一步的真实行动进行价值估计;另一种TD法,Q-Learning算法没有遵循交互序列,而是在下一时刻选择了使价值最大的行动。这两种算法代表了两种策略评估的方式,分别是On-Policy和Off-Policy。On-Policy对值函数的更新是完全依据交互序列进行的,在计算时认为价值可以直接利用采样的序列估计得到。Off...

2019-06-21 16:41:17

强化学习实例9:时序差分法(Temporal Difference)

时序差分法(TemporalDifference,简称TD法),是一种结合了蒙特卡罗法和动态规划法的方法。通过蒙特卡罗法得到通过TD法得到其中称为TD目标TD使用了当前回报和下一时刻的价值估计,所以整体系统没有达到最优,这样的估计是有偏差的,但方差减少。而MC使用完整的采样得到了长期回报值,所以估计偏差小,但方差大。代码如下:#TD之SARSA...

2019-06-21 15:52:47

强化学习实例8:蒙特卡罗法(monte carlo)

在很多实际问题中,我们无法得到游戏的全貌,也就是说,状态转移矩阵无法获知,这被称为“无模型”问题。Bellman公式,可以通过不断迭代得到状态-行动值函数而在无模型问题中,状态转移概率将无法知晓,于是用最初的累积回报求得看到等号右边的期望,我们很自然地联想到了蒙特卡罗法,它是一种通过随机采样估计期望值的方法,全过程总结如下:(1)让Agent和环境交互后得到交互序列(2...

2019-06-21 15:34:50

强化学习实例7:价值迭代法(value iteration)

策略迭代法,可以进一步优化为最大化价值v#价值迭代法classValueIteration(object):defvalue_iteration(self,agent,max_iter=-1):iteration=0whileTrue:iteration+=1new_v...

2019-06-20 16:35:57
奖章
  • 持之以恒
    持之以恒
    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!
  • 勤写标兵Lv4
    勤写标兵Lv4
    授予每个自然周发布9篇以上(包括9篇)原创IT博文的用户。本勋章将于次周上午根据用户上周的博文发布情况由系统自动颁发。