郭曌阳个人简历 |
更新日期 2019/4/13
简历名称 郭曌阳个人简历
计算机软件 | 应届毕业生 | 硕士 | 西安市
|
编 号: | N56853 |
性 别: | 男 |
出生日期: | 1993/12/4 |
婚姻状况: | 未婚 |
国 籍: | 中国 |
民 族: | 汉族 |
身 高: | 175CM |
政治面貌: | 团员 |
教育程度: | 硕士 |
毕业时间: | 2018年6月 |
户 籍: | 西安市 |
现居住地: | 西安市 |
|
|
职业概况 |
现从事行业: | 计算机软件 |
现从事职业: | 软件工程师 |
现职位级别: | 实习生 |
工作年限: | 应届毕业生 |
目前薪水: | 月薪10200人民币 |
海外工作经历: | 没有 |
|
求职意向 |
期望工作性质: | 全职 |
期望工作地区: | 西安市 |
期望从事行业: | 政府/公共事业,非盈利机构,航天/航空,计算机软件 |
期望从事职业: | 科研人员,软件工程师 |
期望薪水: | |
期望岗位名称: | (到岗:) |
|
自我评价/职业目标 |
自我评价: | 1.对计算机视觉(CV)/人机交互相关领域的项目开发非常感兴趣,熟悉OpenCV框架,常用图形图像处理算法,编写过相关软件。
2.有一定的科研能力与较强的文字表达能力:发表中文核心论文,申请国家发明专利等。
3.有完整的项目开发经验,在校期间,负责与参与大量软件开发实践项目。 |
|
教育背景 |
- 学校名称:
- 西南民族大学 ( 2012年9月 - 2016年6月 )
- 学校名称:
- 西南民族大学 ( 2016年9月 - 2018年6月 )
|
工作经验 |
- 公司名称:
- 北京优航机电技术有限公司 ( 2019年3月 - 至今 )
- 工作描述:
- 进行基于TCP/IP服务器的设计与实现。
- 公司名称:
- 西南民族大学 ( 2018年9月 - 2018年12月 )
- 工作描述:
- 1 进行关于软件缺陷预测的科研活动。
2 对导师研究生进行编程指导
- 公司名称:
- 成都国信安信息产业基地有限公司 ( 2015年5月 - 2015年6月 )
- 工作描述:
- 开发一款网页版的切水果。
项目负责人(7人),负责实训项目的功能设计、并独立完成一套交互辅助系统:利用智能手机替代PC鼠标的交互系统;对项目进行大概的集成测试,系统测试,独自完成;
|
职业技能 |
职业技能: | 1.对计算机视觉(CV)/人机交互相关领域的项目开发非常感兴趣,熟悉OpenCV框架,常用图形图像处理算法,编写过相关软件。
2.有一定的科研能力与较强的文字表达能力:发表中文核心论文,申请国家发明专利等。
3.有完整的项目开发经验,在校期间,负责与参与大量软件开发实践项目。 |
|
培训经历 |
- 培训机构:
- 西南交通大学 ( 2017年5月 - 2017年5月 )
|
项目经验 |
- 项目名称:
- 基于单目摄像头和计算机视觉的空间交互技术的研究 ( 2013年1月 - 2013年12月 )
- 项目描述:
- 将通用型单目摄像头作为硬件平台,主要通过计算机视觉和自然手势设计实现基于单目摄像头的空间交互技术,旨在突破鼠标、触摸屏等接触型交互方式的空间局限性,从而有效地提高人机交互的空间性和自然度。在该空间交互模式的基础上,实现文档操控等办公应用以及人机交互游戏的开发并将安装程序向目标用户推广。
- 责任描述:
- 第二负责人(成员3人)。
负责项目的进度安排,算法的设计与实现,主要负责手部捕捉模块的设计与实现。
运用轮廓特征,获取视频帧中手部位置。
研究论文《基于单目摄像头和计算机视觉的空间交互技术》发表在《西南民族大学学报(自然科学版)》项目主页:https://changkun.us/demo/
- 项目名称:
- 基于云计算和机器学习的交互感知中心的研究与实现 ( 2014年5月 - 2015年5月 )
- 项目描述:
- 项目以跨平台多终端移动设备中集成的为硬件平台,研究并构建软件层的交互感知中心(Interaction Perception Center, IPC):客户端的用户行为感知模块(User Behavi Perception Module, UBPM)利用机器学习算法理解用户交互行为,将相关信息传送至服务器端的信息整合模块(Infmation Integration Module, IIM),利用多终端同步技术实现对各个终端的相应反馈。
本项目旨在突破传统鼠标、触摸屏等接触型交互方式的空间局限性,有效的提高用户空间交互的范围和自由度,让用户获得进行远程空间交互的能力。在该空间交互模式的基础上,进一步实现对通用智能终端的操控。以智能家居环境为例,系统通过手机等移动终端收集并理解用户的空间交互行为,实现体感游戏、多人互动等交互操作,而无需另外购置Kinect、Leap Motion等硬件设备。
- 责任描述:
- 核心开发者,完成项目模块设计与开发。
如:蓝牙通信与socket通信模块,行为识别-KNN学习模块,用户行为信息提取(体感)模块。
- 项目名称:
- 基于智能手机摄像头的手势交互系统 ( 2017年8月 - 2018年3月 )
- 项目描述:
- 本研究提出利用硬件成本较低的智能手机作为硬件外设,设计与实现一种基于智能手机摄像头的交互系统。
系统由智能手机与个人电脑组成。智能手机通过内置摄像头以视频流的方式,捕获用户的手势信息,考虑到图像的通信的时耗,手势的识别与分类由智能手机完成。智能手机将已识别的手势信息,发送至个人电脑。个人电脑根据收到的手势信息,完成对应的操作,从而完成用户的交互。整个系统分为元手势识别模块,交互行为模块,交互信息传输模块,三个模块组成。元手势识别模块,基于手势的表观特征(手指个数)完成对帧画面中的手势信息完成识别与分类;交互行为模块包含交互手势与交互操作两个部分,在交互手势方面设计两种交互手势(点击类与移动类交互手势),并且交互手势由若干元手势序列组成,最后利用决策树对交互手势进行分类与识别,在交互行为方面设计两种与交互手势相对应的交互操作(个人电脑鼠标的移动与点击);交互信息传输模块以蓝牙通信为基础,负责将智能手机识别的交互手势信息经过预处理后,发送至个人电脑。
- 责任描述:
- 负责人(研究生毕业设计),独立完成整个系统设计与实现。
申请国家发明专利:《一种基于摄像头视觉信息的手势识别方法》(201810178503.6)
- 项目名称:
- 基于C/S架构的鼠标替代系统 ( 2017年3月 - 2017年12月 )
- 项目描述:
- 由于以图像为手势信息载体的交互方式易受环境影响,为此,设计实现了一种基于智能手机触摸屏与内置传感器的手势交互方案。首先,通过手机内置MEMS传感器及触摸屏获取手势信息;然后分析手势的运动学特征,实时提取手势的信息(角速度,加速度,触摸屏数据),利用多变量决策树分类器完成对手势分类与识别。最后,研究给出了一个原型系统,实验结果表明,该方案满足实时人机交互需求。
- 责任描述:
- 项目负责人(成员5人),独立完成整个项目的设计与开发,研究论文的书写。开发一个跨平台的通信框架Zytransfm,一个实时获取iPhone加速度与陀螺仪数值的框架。
研究论文《基于智能手机传感器与触摸屏的手势交互技术》发表在《计算机应用研究》(CSCD/中文核心学术期刊)上。
|
附加信息 |
- 著作/论文:
- 软件著作权:《基于ios的手机替代鼠标的交互系统V1.0》 (2017SR385677)
- 专利:
- 申请国家发明专利:《一种基于摄像头视觉信息的手势识别方法》(201810178503.6)
- 著作/论文:
- 《基于智能手机传感器与触摸屏的手势交互技术》发表在《计算机应用研究》(CSCD/北大核心/中文核心学术期刊)。
- 著作/论文:
- 《基于单目摄像头和计算机视觉的空间交互技术》发表在《西南民族大学学报(自然科学版)》
|
|