使用C++ Builder实现屏幕图像的发送和接收

使用C++ Builder实现屏幕图像的发送和接收

一、利用C++ Builder实现屏幕图像的发送和接收(论文文献综述)

张恒[1](2021)在《基于人眼跟踪的Android平台裸眼3D视频播放器设计与实现》文中研究指明三维显示技术近年来发展迅猛,显示效果取得了很大的进步,其中基于人眼跟踪的自由立体显示技术不需要使用辅助设备就能够提供三维感知,受到人们的广泛关注。本文采用了标准的瀑布式应用软件开发流程,设计并实现了一款基于人眼跟踪的Android平台裸眼3D视频播放器。文章首先介绍了 Android操作系统和自由立体显示的发展历程和国内外发展现状。然后对Android系统多媒体技术、自由立体显示技术、立体图像生成方法等播放器设计与实现环节需要用到的关键技术进行了介绍。接着对项目进行需求分析和概要设计,得到视频播放器的功能模型、数据模型、行为模型和物理模型。在此基础上进行了模块划分,将项目分成人眼跟踪模块、网络传输模块、数据持久化模块、本地视频查找与显示模块、视频播放控制模块、视点排布计算模块、立体图像合成模块和事务控制模块等八个模块,并分别进行软件详细设计与开发。最后按照软件测试原理对播放器进行了单元与集成测试,并在测试设备上进行效果验证,保证了软件的可靠性。这款播放器使用Java语言和OpenGL着色语言共同开发,采用集成了 Android软件开发工具包、Android虚拟机的Android Studio作为开发平台,利用3399 Android开发板、USB摄像头和自由立体显示屏进行软件测试与效果验证。同时使用为嵌入式设备设计的OpenGL ES进行视频图像的处理,使用Android软件开发工具包提供的MediaPlayer API和Camera2 API进行视频文件解码任务和人眼跟踪任务。这款播放器实现了在Android平台下运行和播放本地视频文件,并根据用户的输入参数将多幅视差视频图像合成单幅立体图像的同时,进行适配多视点自由立体显示屏的九视点裸眼3D视频播放,或适配两视点自由立体显示屏的基于人眼跟踪的两视点裸眼3D视频播放,观看者无需佩戴辅助设备就可以在自由立体显示屏的最佳观看位置观看到3D效果。播放器能够将Android操作系统和自由立体显示技术相结合,符合Android软件市场的多元化需求,符合裸眼三维显示的市场化需要。

黄小勇[2](2021)在《面向行人检测的多画面智能切换系统研究与实现》文中提出移动视频监控技术的出现极大的提高了视频监控的实时性、便捷性,该技术应用十分广泛。以智能手机实现的移动视频监控作为典型应用场景,仍存在很多问题。如监控场景数量较多而手机屏幕较小,导致无法清晰、全面的监视每一个场景,需要通过不断的手动切换监控画面的方式来达到对每一个场景的监控;在进行多画面监控时监控人员需要将精力分散到每一个监控画面上,没有监控的重心,无法实时、快速的捕获监控场景中出现的突发事件,导致监控效率低。因此,针对以上提出的问题,设计并实现了一种面向行人检测的多画面智能切换系统,使得智能手机能够同时显示多路监控画面,并根据现场情况进行监控画面的智能切换。本文主要的研究工作如下:(1)基于Nginx内置的least_conn均衡策略,提出一种改进的dynamic_conn均衡算法。能够实时分析上游服务器性能指标信息,并根据服务器反馈信息动态更改服务器的负载权值。这一算法均衡了后端服务器的负载,提升了视频数据传输的稳定性并降低了播放时延。(2)在传统方向梯度直方图(Histogram of Oriented Gradient,HOG)加支持向量机(Support Vector Machine,SVM)的行人检测方法基础上,引入了中值滤波算法,提出一种“HOG+SVM+中值滤波”三方融合的行人检测模型(Pedestrian Detection Model Based on Tripartite Fusion,PDMTF)。在提取行人HOG特征之前,首先对所有图像进行预处理操作,消除或降低图像因压缩、传输、接收等作业时所产生的的噪声影响,使得提取到的行人HOG特征更加准确。(3)提出一种实时场景的自动监控策略,使得在出现紧急情况时,实现监控画面的智能切换,将发生突发性事件的场景呈现给用户,能有效降低用户的监控压力,并提升视频监控的效率。面向行人检测的多画面智能切换系统的提出,有效解决了当前智能手机移动终端在进行移动监控时所存在的不足,提高了移动视频监控的效率。最终测试结果表明,面向行人检测的多画面智能切换系统各模块运行良好,能够基本满足用户需求。

蒋毅[3](2021)在《基于安卓手机的电脑鼠标的设计与实现》文中研究表明随着移动通信技术的进步与发展,智能手机现在已被广泛地应用于现代人的生活和日常工作中,已经逐渐地成为了其必不可少的部分。人们能够通过智能手机进行相互沟通交流,如打电话、可视聊天、文件互传、地图导航、网上购物等。2020年四季度申请入网的4G、5G手机中有91.6%为智能机,其中Android系统的比例依然位居首位。基于Android平台的智能手机已经是智能手机市场中的重要力量。因此利用基于Android平台智能手机的应用来实现对计算机电脑等其他设备的远程遥控成为技术发展的趋势。在公司会议室汇报工作时经常遇到演讲者忘记带鼠标或者在演讲过程中必须暂时地停下来,转到自己的讲台上,点击鼠标,然后对幻灯片进行更换操作,继续演讲下去,这样的情况对于听众以及演讲者都不友好。因此本文提出了开发一款智能手机应用实现远程控制电脑达到替代鼠标相关功能目的,从而解决相关实际问题。本文研究了在安卓客户端和PC服务器端处于同一个WIFI局域网环境时,系统如何通过WIFI网络建立Socket网络连接,通过安卓手机识别手指在屏幕上的滑动与点击等多点触控操作后,以TCP协议方式向服务器发送控制信息,服务器端接收到控制信息代码读取并解码后即向电脑Windows系统发送相对应的控制信息来控制电脑端鼠标或键盘的操作。具体包括以下两方面研究:一是电脑端方面,利用C#编程开发服务器端应用程序。这主要包括对C#语言基本语法的应用,C#语言对于Windows窗口程序的实现,Socket网络编程的基于TCP数据传输协议的应用,以及Windows系统中关于鼠标控制和键盘控制API的应用。二是手机端方面,利用安卓编程开发客户端应用程序。这主要包括安卓应用程序的界面布局,基本控件的使用,Handler处理多线程消息传递,控件监听器的实现,手势识别Gesture Detector的设计与实现。通过本系统的设计与实现,不仅能远程控制电脑,还能体验良好的人机交互,也为后续更深入的智能物联网控制延伸奠定基础。

王闯[4](2021)在《办公环境中视觉疲劳检测系统的设计》文中指出随着电脑办公的普及以及智能家居的快速发展,人们生活质量不断改善的同时,对营造良好舒适的个人办公学习环境的追求日益提高。结合近几年国内外智能办公环境系统的发展与研究,发现办公环境与办公人员的舒适度、视疲劳程度和工作效率有着密不可分的关系。本设计基于数字图像处理技术、人脸识别技术、单片机技术等,设计一个能够实时检测、可视化、实用性强的用于办公环境中视觉疲劳检测的系统,本系统分为两个部分,第一部分是利用摄像头对人脸进行定位,并结合算法快速判断用户是否处于疲劳状态,如果判定疲劳则调节屏幕亮度至较为暗的值甚至将亮度调至最低,从而实现了屏幕亮度自动调节。第二部分通过控制台灯、风扇、加湿器等设备以及对其他相关部件的控制,模拟该系统对个人办公环境的温湿度、亮度的调节,环境温湿度等当前数值能够在液晶屏上显示以及按键调节,使用者能够直观的了解当前环境参数的状况以及进行相应的手动调节。本课题以数字图像处理技术、机器视觉技术和单片机技术为核心,构建一个方便快捷、实用性强的用于办公环境中视觉疲劳检测的系统,不仅要实现对人面部信息的实时采集,调整屏幕亮度,还要实现改善办公环境周围温湿度值、亮度值等功能。本设计研究的主要内容如下:搭建系统的温湿度,亮度信息采集模块,选用单片机作为温湿度,亮度信息采集与控制模块,外接各个信息采集的传感器,实现实时对当前环境温湿度值,亮度值的监测与数据采集,以及控制外设对环境温湿度,亮度进行调整。搭建系统的人脸信息采集模块,通过摄像头定位、检测人脸图像信息,将提取到的与人眼相关图像信号传入计算机编程进行处理,通过利用深度神经网络模块对人脸图像信号的分析与计算处理,利用68点坐标判断用户状态是否疲劳。当判断完毕用户状态是否疲劳后,通过软件编程设计自动调节屏幕亮度的算法,进行相应的软件调节电脑屏幕亮度以保护眼睛。综上所述,本系统能够满足个人办公环境的温湿度、环境照度以及屏幕亮度的智能自调节,从而构建出使人感觉舒适的智能办公环境。

张烨[5](2020)在《一种新型数字电视软件系统的设计与实现》文中研究表明随着我国数字技术、计算机技术以及网络技术的快速发展,数字电视作为发展最快且用户需求最大的消费产品,受到了企业的重视,已成为电视产业的发展趋势。目前,我国企业掀起了研究数字电视传输策略,制定数字电视标准,研发数字电视设备,引导数字电视技术的发展方向。近年来,随着我国移动互联网的快速发展,对数字电视行业造成了巨大的冲击,同时也为数字电视的发展提供了新思路。本文首先对国内外数字电视的发展现状及其标准作了详细的介绍,总结了我国数字电视标准的优点和不足之处。针对目前国内外有关数字电视的发展现状,在快速发展的移动互联网背景下,结合有关的数字电视标准和数字电视设备,研发一种数字电视地面广播接收终端软件系统。主要工作包括以下内容:(1)为了能够设计一个更加方便快捷的数字电视接收终端软件系统,结合有关的软件系统理论,在数字电视接收终端的可移植性以及模块化的标准基础之上,采用模块化的编程方法,构建基于分层设计的软件框架结构,明确接收终端内部的各个代码之间关系,利于后续软件的开发升级与维护。(2)数字电视接收终端人机交互层的智能化设计模式。采用HI2016主芯片附带的高效创建高性能跨平台交互图形程序OSG(Open Scene Graph)和屏幕菜单式调节的OSD(on-screen display)功能,快速构建一个人机交互层,实现基于消息通讯机制的人机交互通道,进而在软件系统内部设置一个任务主控系统,用于统筹规划用户的各种业务。这种智能化的设计模式大大提高了软件系统的运行效率和反应能力,保障了系统的稳定性。(3)数字电视接收终端设备总线驱动设计模式。对信道解调模块、音视频解码及控制主模块、音视频放大输岀模块和电源模块进行分析与设计,进而设计数字电视接收终端的硬件结构;对数字电视接收终端设备驱动层的调解芯片、无线音频连接芯片、TUNER以及SPI驱动程序进行设计与测试,实现接收终端软件系统的通讯功能;设计一个API(Application Programming Interface)接口,实现设备驱动层与系统操作的软件联系,维持上层软件在整个系统操作过程中的可行性。在数字电视地面广播接收终端软件系统设计基础上,对系统进行了多次调试与功能完善。数字电视地面广播接收终端软件系统具有较强的可行性和稳定性,且较低的成本,符合数字电视市场需求,促进了数字电视系统的升级与维护。

李成林[6](2020)在《基于可见光通信的物联网设备调试交互研究》文中研究表明为了满足物联网应用中边缘感知系统信息交互的需求,可以采用传输便捷、功耗较低的近场通信方法。然而,传统的近场通信方法基于电磁波的广播通信,采用广播通信对节点实施在线调试,存在着安全性的先天不足。另一方面,如果被部署到无人区的节点出现了无线通信方面的故障,会导致节点从网络中失联,这时依赖于无线网络的传统调试修复交互手段可能失效。由于传感器网络节点的硬件结构简单,一般也很难提供额外的调试手段。本文通过挖掘现有传感器节点与移动终端上多种光学模块的潜能,在不修改硬件的前提下,针对通信失联的故障传感器节点,提出了一种基于可见光通信的调试交互方法,并基于该方法实现了一个基于可见光的混合双工调试交互系统。在该系统中,下行链路传输的数据是主要用于修复更新的代码数据,数据量较大。而传感器节点光照度传感器感光延时较大,导致数据单位传输时间过长,整体代码数据的传输速率较低。为此,本文提出一种基于压缩表达的双头脉冲间隔调制(Compressed Dual-header Pulse Interval Modulation,CDH-PIM)。其核心思想是对代码数据中出现的重复数据,使用特殊的符号进行压缩表达,可以有效提高数据的传输速率。实验表明CDH-PIM相较于PWM传输速率提升98.6%,能耗降低79.8%,相较于DH-PIM传输速率提升14.8%,能耗降低8.7%。系统上行链路主要负责传输传感器节点端发出的反馈调试信息。其信息接收器为移动设备上的光学相机。为此,我们利用光学相机的卷帘快门工作机制,设计了一种高效的数据传输方法。然而由于可见光具有较高的指向性,轻微的晃动也可能对数据传输造成影响;此外,由于光学相机以图像帧为单位完成拍摄,而节点LED发送一帧数据所用时长需要与光学相机的图像帧曝光时间保持一致才能成功传输调试信息。为此,我们进一步提出一种面向卷帘快门的反馈式帧同步方案。该同步方案由移动设备与节点通信,协同完成信号的同步传输与接收。对采集到的图像做实时检测,当数据发生丢失时,移动设备端发送反馈信息,重传丢失数据并再次同步,以此来保证数据传输质量。该帧同步方案可在30fps条件下可达到600b/s的数据传输率。

任静[7](2020)在《图像压缩编解码的FPGA设计与实现》文中研究指明随着计算机和信息科学技术的不断发展,图像处理在航空航天、生物医学、遥感监测、信息安全等领域都发挥着重要作用,尤其是高分辨率图像的实时处理对相关领域的发展尤为关键。鉴于仅仅使用纯软件的方式来实现图像的处理需要耗费大量的时间,并不能达到快速和实时性的要求,而采用FPGA(现场可编程门阵列)与高效率硬件描述语言Verilog HDL相结合的方法,可以充分发挥其流水线的并行处理能力,进而大大加速系统的设计进程,提供了硬件支持和软件保障。目前,图像压缩算法的优化及其硬件实现,仍有很大的研究和发展空间。论文以Cyclone II系列FPGA作为中央处理器,选用DE2开发平台,并在Quartus II中采用硬件描述语言进行编程,最终设计了一种基于FPGA的图像压缩编解码系统。系统集图像采集、JPEG图像压缩以及数据传输功能为一体。其中,图像采集模块选用以CMOS传感器MT9P001芯片为核心的D5M开发套件,实现图像捕获并实时地将Bayer格式转换成便于操作的RGB格式。图像压缩模块完成了基于FPGA的JPEG编码器的实现。为此,先对图像进行预处理,将RGB格式转换为YCbCr格式。然后在Chen算法基础上,通过二分频信号控制器对加减运算符号做出选择,减少了加法器的调用,从而实现二维离散余弦变换(DCT)的优化。其次将量化与Zigzag扫描相结合,对DCT系数和量化步长同时完成扫描重排,进一步节约了功能实现所需时间。最后,采用查找表的形式进行DC系数和AC系数的Huffman编码,并完成了码流组装。图像传输模块通过RS_232串口与PC机进行通信,将完成压缩后的图像数据传输至PC端,并通过MATLAB进行解压缩,显示并保存图像。论文主要包括图像采集系统的硬件电路、JPEG压缩处理系统的硬件电路及软件设计,实现了系统各个模块功能,并对其进行测试,验证了整个系统的可行性。测试表明,本设计实现了预期的功能,达到设计目标,实现了图像的采集、JPEG编码器以及传输的要求。最终在PC机上显示出来的图像,质量良好,验证了本系统的可行性。

陈旭璇[8](2020)在《基于智能吊篮的高空作业远程视频监控系统的设计与实现》文中提出高空作业平台是一种将施工人员、工具和材料运送到指定高空位置并进行作业的生产设备,被广泛应用于工业制造、建筑工地等各个行业的高空生产领域。安全问题是关系到施工人员生命安全以及高空作业行业发展的重要影响因素,受到高空地理环境因素的影响,目前国内尚无完备的高空作业远程监管方案。本文设计并实现了一套结合目标检测技术、基于智能电动吊篮的高空作业远程视频监控系统,为高空作业企业提供了综合的实时监管方案。首先,对系统进行了需求分析和架构设计,将远程监控系统的功能性需求抽象成了登录注册、设备定位、实时监控和消息中心这四个功能模块,并基于扩展性强、耦合度低的微服务架构划分出了监控服务、消息服务、个人服务、软硬件通信服务与安全帽检测服务这五大服务模块。然后,重点研究了用于检测高空施工人员是否佩戴安全帽的目标检测算法。在对基于深度学习的R-CNN系列算法进行充分的理论研究后,以Faster R-CNN算法为基础设计了高空作业下的安全帽检测算法,在选择特征提取网络、构建监控场景数据集,以及模型训练策略方面对算法进行了优化,并基于Py Torch框架搭建了深度学习平台,对安全帽检测算法进行了测试和性能评估,对漏检、错检的样本进行了分析。该安全帽检测算法每秒能够处理14帧监控图像,检测准确率为91.8%。最后,对系统进行了详细的设计与实现。系统包括应用服务端和Android客户端,其中,应用服务端的开发包括微服务架构组件和微服务模块两个部分:首先基于Spring Cloud微服务框架搭建远程监控应用服务平台,研究了微服务网关、服务发现与注册组件、负载均衡组件等微服务组件的技术实现;接着分别基于消息队列、RTMP流媒体技术以及FTP文件系统研究了参数、视频与图像等多类数据传输的软硬件通信策略;随后对数据库设计、Redis缓存优化、服务端主动消息推送等业务服务设计中的关键技术进行了方案论证与具体实现;最后基于Sidecar实现了对第三方Python-Web安全帽检测算法的集成。Android客户端的开发以满足功能需求、提供直观用户界面为目标,完成了登录注册、设备定位、实时监控和消息中心四个主要功能模块的方案设计与开发实现,并基于LBS定位技术和Baidu Map研究并改进了面向行政区域级别的多点聚合方案。为了充分发挥微服务架构能够快速水平拓展服务模块,以及自动实现负载均衡策和故障转移的优势,本文基于Docker容器虚拟化技术实现了远程监控系统应用服务端的部署,并在真机上测试了监控软件的各个功能模块,系统最终功能完整且运行稳定,达到了预期效果。

刘根[9](2020)在《虚拟现实环境下人机交互与设备远程操控关键技术研究与应用》文中研究表明在智能制造系统的研究开发实践中,会遇到大量的人机交互(Human-Machine Interaction)和需要对机器设备进行远程操控(Teleoperation)的情况。很多数字化智能化的工厂都具备了先进的人机交互系统和对设备进行远程状态检测、调试和维护的能力。尤其是在高温、有毒、高电离辐射等恶劣工况条件下,工程技术人员可以通过先进的人机交互和遥操作技术对现场设备进行遥控操作,从而保护工作人员的身体免于损伤。人机交互和远程操控技术具有大量的市场需求和广阔的应用前景,相关的研究非常热门。随着虚拟现实和5G技术的发展,为人机交互和远程操控技术注入了新的技术元素。基于传统技术的人机交互和远程操控已经不能满足人们的需求。人们需要构建一个具有逼真可视化效果,能够与虚拟场景进行自然交互,在虚拟现实环境中对设备进行远程操控的系统。本文以开发出虚拟现实环境下的人机交互和设备远程操控系统为目标,分别研究了该系统所需攻克的若干技术问题,包括基于视觉的数据采集技术,场景预建模和3D显示技术,低延时、安全远程控制技术。本文主要内容如下:(1)提出通过机器视觉技术采集物理设备动作状态信息的相关方法,设计了多种视觉标记用于标记物理设备,将深度学习算法运用于对视觉标记的识别和跟踪定位,实验表明引入深度学习算法简化了双目和多目视觉的摄像机标定的过程,尤其是需要用到多摄像头,摄像头视野不规则重合的情况下,本文所提出的方法能够很好地识别出附着在设备上和人手上的视觉标志并实现对视觉标志的定位,从而间接获取到所附着物体的姿态、动作等信息。(2)为解决虚拟现实场景实时构建问题,本文设计了一套物理设备预建模并结合视觉信息进行模型实时加载的场景构建方法,不同于三维重建技术,该方法不需要复杂的视觉和激光扫描设备以及高配置的计算机系统。本文使用透镜式VR(Virtual Reality)显示技术,将实时构建的场景,分别投射到左眼和右眼,实现沉浸式立体显示。(3)针对控制信号传输和处理中的延时问题,本文优化了通信链路并提出了一种模型预测显示的方法,以降低信号传输的延时。实现了基于PLC(Programmable Logic Controller)作为控制终端的远程控制。(4)整合本文所提出的多项关键技术,基于HTC Vive头盔显示系统平台,开发实现了一套虚拟现实环境下的人机交互和设备远程操控系统。该系统能够根据视觉采集的信息实时构建3D场景,并能将虚拟环境中的操作关联到实体设备,实现实体设备与虚拟场景的实时同步。

唐恒博[10](2020)在《云联络中心客户端关键技术的研究和实现》文中研究指明近年来,随着4G网络的大面积覆盖,5G网络的兴起,互联网技术的极速发展,对于云联络中心领域而言,高品质全媒体多渠道云联络中心和全程无卡顿视频客服已经成为趋势。而移动互联网以及相关技术的发展一步步完善,将移动互联网与云联络中心融合,为客服提供更为方便高效的工作方式,也提升了用户的满意度和云联络中心的服务品质。同时,移动终端开发效率、终端运行性能以及维护成本之间的问题越发的凸显出来,移动端和前端的边界越发地模糊。本文针对跨平台云联络中心系统移动端的组件化混合开发以及基于Web Socket和Web RTC的实时音视频通讯等关键技术进行研究,旨在通过这些关键技术的研究,提升云联络中心系统的研发效率和用户满意度,帮助客户和坐席进行更好的咨询服务。首先,本文研究与实现了跨平台多媒体通信模块的一系列关键技术。主要包含:对H.264视频编码方案研究并与VP8编码方案在帧率、比特率、CPU占用率、内存占用情况、PSNR、SSIM四个角度进行对比分析,提升音视频编码效率,实现基于Web RTC和Web Socket的跨平台实时通讯组件;基于Web Socket的跨平台即时消息通讯组件的研究与实现,建立点对点通讯,为用户提供文本消息聊天功能以及通过面向多协议高效文件服务器实现的图片消息、语音消息、短视频消息聊天功能的多媒体通信体验。其次,本文围绕跨平台云联络中心移动端系统,进行跨平台组件化混合开发技术的研究与实现,包括对Flutter利用Flutter Boost集成混合开发的各个组件,提高系统的稳定性;基于Retrofit.dart、Dio以及Rx Dart设计实现跨平台网络通信组件,对网络通信框架进行网络请求、网络处理、网络调度三层结构定制封装,简化网络操作,提升网络传输的安全性和可靠性;研究实现了采用四级缓存策略以及支持大图模糊处理、懒加载的跨平台图片管理组件,解决移动终端以及移动网络下图片加载展示速度慢和图片内存泄漏等问题,提高系统性能。并且基于sharepreference与sqflite设计实现了跨平台数据持久化组件,采用分层分类处理原则,实现小数据快速提取,大数据并发操作需求,提高了数据的可靠性以及安全性。最后,本文针对本系统相关功能模块进行了功能测试以及性能测试,首先是通过黑盒测试,针对本系统各个功能设计出多个测试用例,验证了系统的高可用性。同时,对本系统进行性能测试,测试本系统的启动时间、CPU和内存占用、网络带宽情况进行测试,验证系统的高效性和可靠性。

二、利用C++ Builder实现屏幕图像的发送和接收(论文开题报告)

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

三、利用C++ Builder实现屏幕图像的发送和接收(论文提纲范文)

(1)基于人眼跟踪的Android平台裸眼3D视频播放器设计与实现(论文提纲范文)

摘要
ABSTRACT
第一章 绪论
    1.1 论文研究背景与意义
    1.2 播放器与基于人眼跟踪的裸眼3D显示系统的国内外发展现状
    1.3 论文主要工作
    1.4 论文结构安排
第二章 基于Android的3D视频播放器的关键技术
    2.1 Android系统多媒体技术
        2.1.1 Android多媒体框架
        2.1.2 MediaPlayer组件
        2.1.3 SurfaceView、GLSurfaceView与OpenGL ES
    2.2 Android系统人眼跟踪技术
    2.3 自由立体显示技术
        2.3.1 柱面镜型自由立体显示技术
        2.3.2 狭缝光栅型自由立体显示技术
        2.3.3 基于人眼跟踪的自由立体显示技术
    2.4 自由立体显示的图像生成方法
        2.4.1 九视点自由立体显示图像生成方法
        2.4.2 基于人眼跟踪的两视点自由立体显示图像生成方法
    2.5 本章小结
第三章 基于Android的3D视频播放器的需求分析和概要设计
    3.1 视频播放器的需求分析
        3.1.1 视频播放器的问题描述
        3.1.2 视频播放器的功能模型
        3.1.3 视频播放器的数据模型
        3.1.4 视频播放器的行为模型
        3.1.5 视频播放器的数据字典
    3.2 视频播放器的概要设计
        3.2.1 视频播放器的系统设计
        3.2.1.1 视频播放器的物理模型
        3.2.1.2 视频播放器的工程网络
        3.2.2 视频播放器的结构设计
        3.2.2.1 系统的模块化设计
        3.2.2.2 视频播放器的软件结构
    3.3 本章小结
第四章 基于Android的3D视频播放器的详细设计、编码和测试
    4.1 视频播放器的详细设计
        4.1.1 视频播放器的过程设计
        4.1.1.1 事务控制模块
        4.1.1.2 人眼跟踪模块
        4.1.1.3 网络传输模块
        4.1.1.4 数据持久化模块
        4.1.1.5 本地视频查找与显示模块
        4.1.1.6 视频播放控制模块
        4.1.1.7 视点排布计算模块
        4.1.1.8 立体图像合成模块
        4.1.2 人机界面设计
    4.2 视频播放器编码与测试
        4.2.1 视频播放器软件编码
        4.2.2 视频播放器软件测试
    4.3 基于人眼跟踪的裸眼3D视频播放效果展示
    4.4 本章小结
第五章 总结与展望
    5.1 论文工作总结
    5.2 展望
参考文献
致谢
攻读硕士学位期间申请的专利目录

(2)面向行人检测的多画面智能切换系统研究与实现(论文提纲范文)

摘要
Abstract
第1章 绪论
    1.1 研究背景与意义
        1.1.1 本文研究背景
        1.1.2 本文研究意义
    1.2 国内外研究现状及发展趋势
        1.2.1 国内外研究现状
        1.2.2 发展趋势
    1.3 本文主要工作与组织结构
        1.3.1 论文的主要工作
        1.3.2 论文的组织结构
    1.4 本章总结
第2章 多画面智能切换系统相关技术
    2.1 流媒体技术
        2.1.1 流媒体传输协议
        2.1.2 FFmpeg技术介绍
        2.1.3 Nginx技术介绍
    2.2 音视频处理技术
        2.2.1 H.264 技术
    2.3 行人检测相关技术
        2.3.1 梯度方向直方图技术
        2.3.2 支持向量机技术
        2.3.3 中值滤波技术
    2.4 本章小结
第3章 系统总体设计
    3.1 需求分析
    3.2 多画面智能切换系统总体架构设计
    3.3 多画面智能切换系统各部分设计方案
        3.3.1 图像采集端功能模块设计
        3.3.2 服务器端功能模块及调度算法设计
        3.3.3 行人检测端功能模块设计
        3.3.4 客户监控端功能模块设计
    3.4 本章小结
第4章 多画面智能切换系统各模块实现
    4.1 流媒体服务器架构的搭建
        4.1.1 Nginx服务器的搭建
        4.1.2 Nginx的第三方模块
        4.1.3 Nginx负载均衡器
        4.1.3.1 dynamic_conn动态反馈调度算法
        4.1.3.2 负载均衡器的部署实现
        4.1.4 检测结果与分析
    4.2 行人检测算法设计及实现
        4.2.1 PDMTF行人检测算法
        4.2.2 图像预处理
        4.2.3 正负样本的HOG提取
        4.2.4 SVM分类器
        4.2.5 检测结果与分析
    4.3 客户监控端的实现
        4.3.1 客户监控端分别与行人检测端及服务器端的数据交互
        4.3.2 多路视频监控画面的智能切换
        4.3.2.1 多画面智能切换算法
        4.3.3 客户端实时预警功能实现
        4.3.4 屏幕录制功能实现
    4.4 本章小结
第5章 系统测试
    5.1 系统测试环境
    5.2 功能测试
    5.3 性能测试
    5.4 本章小结
第6章 总结与展望
    6.1 工作总结
    6.2 未来展望
参考文献
攻读硕士学位期间从事科学研究及发表论文情况
致谢

(3)基于安卓手机的电脑鼠标的设计与实现(论文提纲范文)

摘要
abstract
第一章 绪论
    1.1 研究的背景与意义
    1.2 相关技术发展概况及国内外应用发展现状
        1.2.1 Android技术概述
        1.2.2 WIFI技术概述
        1.2.3 国外应用现状
        1.2.4 国内应用现状
    1.3 课题研究方法及研究内容
    1.4 本论文的结构安排
第二章 系统的开发环境与其相关技术
    2.1 Android平台简介
        2.1.1 Android平台架构
        2.1.2 Android平台组件
        2.1.3 Android平台事件处理
    2.2 Android开发环境
    2.3 Android开发平台搭建
    2.4 Socket通信
        2.4.1 Socket通信简介
        2.4.2 Socket通信编程原理
    2.5 安卓多点触控以及手势识别
        2.5.1 多点触控技术简介
        2.5.2 安卓多点触控及手势识别的实现
    2.6 本章小结
第三章 需求分析
    3.1 系统需求分析
        3.1.1 需求分析概述
        3.1.2 需求场景分析
    3.2 功能需求分析
    3.3 功能用例分析
    3.4 性能需求分析
    3.5 用户界面需求分析
    3.6 本章小结
第四章 基于安卓手机的电脑鼠标的设计
    4.1 用户界面设计
    4.2 程序模块设计
        4.2.1 服务器程序设计
        4.2.2 客户端程序设计
    4.3 本章小结
第五章 基于安卓手机的电脑鼠标的实现
    5.1 开发环境
    5.2 文件结构与用途
        5.2.1 电脑服务器端程序
        5.2.2 安卓客户端程序
    5.3 服务器程序设计详解
    5.4 客户端应用程序详解
    5.5 用户界面
        5.5.1 连接界面Logon类
        5.5.2 控制界面类MainActivity类
    5.6 本章小结
第六章 系统测试
    6.1 系统测试目标及流程
    6.2 系统测试项目及测试环境
    6.3 系统测试结果及分析
    6.4 本章小结
第七章 总结
    7.1 全篇总结
    7.2 后续展望
致谢
参考文献
附录

(4)办公环境中视觉疲劳检测系统的设计(论文提纲范文)

摘要
Abstract
第1章 绪论
    1.1 研究目的及意义
    1.2 国内外对智能办公环境研究现状与发展趋势
        1.2.1 国内对智能办公环境的研究发展现状
        1.2.2 国外对智能办公环境的研究发展现状
    1.3 国内外对面部特征提取的研究现状与发展趋势
        1.3.1 国外对面部特征提取的研究现状
        1.3.2 国内对面部特征提取的研究现状
    1.4 本文主要研究内容
第2章 系统的硬件电路设计
    2.1 系统硬件电路的总体设计思路
    2.2 本设计中单片机的管脚分配与使用
    2.3 温湿度数据采集的设计
    2.4 光强度数据采集的设计
    2.5 其他控制模块的设计说明
        2.5.1 本设计中 LCD1602 的使用说明
        2.5.2 本设计中参数自动调节的设计说明
    2.6 本章小结
第3章 系统中疲劳检测模块的设计
    3.1 疲劳检测模块的设计流程
    3.2 图像数据的处理
        3.2.1 本设计中图像处理工具
        3.2.2 实验图像的预处理
        3.2.3 不同人脸检测方法的对比试验
        3.2.4 人脸部特征点的提取
    3.3 系统疲劳检测模块的设计
        3.3.1 PERCLOS原理简介
        3.3.2 用户疲劳检测模块的设计
    3.4 本章小结
第4章 系统的功能实现
    4.1 系统的需求分析与实验环境
    4.2 系统客户端的软件设计
    4.3 系统的性能测试
    4.4 本章小结
结论
参考文献
攻读学位期间发表的学术成果
致谢

(5)一种新型数字电视软件系统的设计与实现(论文提纲范文)

摘要
Abstract
第一章 引言
    1.1 数字电视简介
    1.2 数字电视技术的优点
    1.3 国内外数字电视发展现状
        1.3.1 国外数字电视发展状况
        1.3.2 国内数字电视发展状况
    1.4 地面数字电视传输的主要标准
        1.4.1 国外地面数字电视传输标准简介
        1.4.2 DTMB标准简介
    1.5 论文研究的主要内容和结构安排
第二章 DTMB数字电视接收终端软件系统的设计
    2.1 系统概述
    2.2 软件开发编译环境
    2.3 实时操作系统?C/OS分析运用
    2.4 软件系统的结构
    2.5 软件分层的设计
    2.6 对关键技术的研究
第三章 数字电视接收终端人机交互层的设计与实现
    3.1 人机交互层概述及系统结构
    3.2 人机交互层模块设计及其相关业务管理
    3.3 界面设计
        3.3.1 支持机制
        3.3.2 用户界面的需求分析
        3.3.3 用户界面的设计
第四章 DTMB数字电视接收终端设备驱动层的设计与实现
    4.1 DTMB数字电视接收终端的硬件结构
    4.2 I~2C总线驱动分析设计
        4.2.1 I~2C总线概述
        4.2.2 I~2C总线双向传输的接口特性
        4.2.3 I~2C总线工作原理分析应用
        4.2.4 I~2C总线的应用设计
    4.3 解调芯片LGS-8G42驱动设计
        4.3.1 硬件连接模式研究
        4.3.2 软件实现
    4.4 BLH-702调谐器驱动设计
        4.4.1 硬件的连接模式研究
        4.4.2 高频头寄存器流程控制
        4.4.3 设定高频头的初始化模式及频率
    4.5 FM调频芯片的驱动设计
        4.5.1 SPI总线驱动设计
        4.5.2 FM调频芯片驱动开发
    4.6 对驱动软件的调试
第五章 核心芯片介绍及系统评测数据
    5.1 解码芯片HI2016E
    5.2 解调芯片LGS-8G42
    5.3 接收终端参数测试
第六章 结论和展望
参考文献
致谢

(6)基于可见光通信的物联网设备调试交互研究(论文提纲范文)

摘要
ABSTRACT
符号说明
第一章 绪论
    1.1 研究背景和意义
    1.2 无线传感器节点调试概述
    1.3 可见光通信概述
        1.3.1 可见光通信的技术特点
        1.3.2 国内外可见光通信研究现状
    1.4 本文的主要创新点
    1.5 本文的组织结构安排
第二章 可见光通信特性
    2.1 LED特性
        2.1.1 LED工作原理
        2.1.2 白光LED的光谱特性
        2.1.3 白光LED的调制特性
        2.1.4 白光LED的辐射特性
    2.2 可见光信道特性
    2.3 双向通信
    2.4 本章小结
第三章 基于可见光通信的调试系统
    3.1 相关工作介绍分析
    3.2 环境光传感器
    3.3 图像传感器
        3.3.1 CDD与 CMOS的区别
        3.3.2 Camera2 api
    3.4 系统环境
    3.5 本章小结
第四章 下行链路:基于环境光传感器的压缩调制方法
    4.1 CDH-PIM调制原理
    4.2 CDH-PIM编解码
        4.2.1 编码
        4.2.2 解码
    4.3 实验结果与分析
        4.3.1 脉冲宽度的影响
        4.3.2 通信距离的影响
        4.3.3 设备间夹角的影响
    4.4 本章小结
第五章 上行链路:基于卷帘快门的反馈式帧同步方案
    5.1 光学相机通信面临的挑战
    5.2 卷帘快门特性
    5.3 反馈式帧同步方案
        5.3.1 传输开始阶段的起始同步
        5.3.2 传输中断后的再次同步
    5.4 实验结果与分析
        5.4.1 曝光时间与数据帧长对成像的影响
        5.4.2 通信距离对RGB-LED发射频率的影响
        5.4.3 传统重传方案和帧同步方案的有效传输速率比较
    5.5 本章小结
第六章 结论与展望
    6.1 结论
    6.2 展望
参考文献
致谢
作者简介
    1 作者简历
    2 攻读硕士学位期间发表的学术论文
    3 参与的科研项目及获奖情况
    4 发明专利
学位论文数据集

(7)图像压缩编解码的FPGA设计与实现(论文提纲范文)

致谢
摘要
abstract
第一章 绪论
    1.1 课题的研究目的及意义
    1.2 课题的研究背景及发展现状
        1.2.1 图像压缩技术的研究背景及发展现状
        1.2.2 图像采集与处理系统的研究背景及发展现状
    1.3 论文主要内容与结构安排
    1.4 本章小结
第二章 图像压缩算法相关理论
    2.1 JPEG图像压缩简介
    2.2 JPEG的压缩编码流程
        2.2.1 图像分块和色彩空间的转换
        2.2.2 离散余弦变换
        2.2.3 量化
        2.2.4 Zigzag扫描
        2.2.5 熵编码
    2.3 JPEG格式表示
    2.4 JPEG解码概述
    2.5 本章小结
第三章 图像压缩编解码系统整体框架与硬件设计
    3.1 总体设计
        3.1.1 整体框架
        3.1.2 系统流程
    3.2 系统硬件平台的搭建
        3.2.1 核心器件
        3.2.2 摄像头的内部配置
    3.3 本章小结
第四章 图像压缩编解码系统各模块软件设计与实现
    4.1 开发环境的软件介绍
        4.1.1 Quartus II设计软件简介
        4.1.2 Verilog HDL简介
        4.1.3 DSP Builder系统设计概述
    4.2 图像采集模块
        4.2.1 I2C总线配置模块
        4.2.2 图像格式转换模块
        4.2.3 图像缓存模块
    4.3 JPEG压缩模块
        4.3.1 图像色彩转换预处理
        4.3.2 DCT变换模块的实现
        4.3.3 量化和Zigzag扫描模块的实现
        4.3.4 熵编码模块
        4.3.5 JPEG码流组装模块
    4.4 UART模块
        4.4.1 组件创建添加方法
        4.4.2 UART内核模块
    4.5 本章小结
第五章 系统调试与分析
    5.1 图像采集与分析
    5.2 串口传输测试
    5.3 MATLAB解压缩恢复图像
    5.4 本章小结
附录A 实物图
附录B 攻读学位期间发表的学术论文
第六章 总结与展望
    6.1 全文总结
    6.2 未来工作展望
参考文献

(8)基于智能吊篮的高空作业远程视频监控系统的设计与实现(论文提纲范文)

摘要
Abstract
第一章 绪论
    1.1 课题的研究背景及意义
    1.2 课题的国内外研究现状
        1.2.1 视频监控系统的发展现状
        1.2.2 图像处理技术在视频监控系统中的应用现状
    1.3 课题的研究内容与研究重点
    1.4 本文的章节安排
第二章 远程监控系统的总体设计
    2.1 智能吊篮的高空作业场景及现有模式中存在的问题
        2.1.1 高空作业场景分析
        2.1.2 现有模式存在的问题
    2.2 需求分析
        2.2.1 需求推导
        2.2.2 应用服务端需求
        2.2.3 Android客户端需求
    2.3 架构设计
        2.3.1 软件架构设计模式选择
        2.3.2 基于微服务的架构设计
    2.4 系统结构层次划分
    2.5 本章小结
第三章 基于深度学习的安全帽检测算法研究
    3.1 安全帽检测问题的算法抽象
    3.2 目标检测算法概述
        3.2.1 传统的目标检测算法
        3.2.2 基于深度学习的目标检测算法
        3.2.3 目标检测算法对比
    3.3 R-CNN系列算法研究
        3.3.1 R-CNN
        3.3.2 SPP-Net与 Fast R-CNN
        3.3.3 Faster R-CNN
    3.4 基于Faster R-CNN的安全帽检测算法
        3.4.1 安全帽检测方案
        3.4.2 算法改进策略
        3.4.3 Res Net50-FPN特征提取网络
        3.4.4 数据集的构建与扩充
        3.4.5 端到端的训练策略
    3.5 算法实现
        3.5.1 深度学习平台搭建
        3.5.2 模型参数选择
        3.5.3 实验结果与分析
    3.6 本章小结
第四章 基于微服务架构的应用服务端的设计与实现
    4.1 开发框架
        4.1.1 Spring Framework
        4.1.2 Spring Boot与 Spring Cloud
        4.1.3 My Batis
    4.2 微服务架构组件的实现
        4.2.1 服务注册发现组件
        4.2.2 客户端侧负载均衡组件
        4.2.3 API网关组件
        4.2.4 声明式REST客户端组件
    4.3 微服务模块结构
    4.4 软硬件通信服务模块的设计与实现
        4.4.1 智能吊篮硬件环境
        4.4.2 软硬件通信服务的整体设计
        4.4.3 基于Rabbit MQ的双向文本传输
        4.4.4 基于RTMP的流媒体传输
        4.4.5 基于FTP的图像传输
    4.5 客户端业务相关服务模块的设计与实现
        4.5.1 数据库设计
        4.5.2 数据库的缓存优化
        4.5.3 个人服务模块
        4.5.4 监控服务模块
        4.5.5 消息服务模块
    4.6 安全帽检测服务模块在监控系统中的接入
        4.6.1 微服务系统对第三方服务的集成
        4.6.2 定时检测任务
    4.7 本章小结
第五章 基于Android的监控客户端的设计与实现
    5.1 Android平台技术概述
        5.1.1 Android系统架构
        5.1.2 Android应用组件
    5.2 客户端功能模块的通用设计
        5.2.1 基于MVVM的功能模块结构
        5.2.2 与服务端通信方式的约定与实现
        5.2.3 应用授权
    5.3 登录注册模块的设计与实现
        5.3.1 新用户注册
        5.3.2 用户登录
    5.4 设备定位模块的设计与实现
        5.4.1 LBS空间定位服务
        5.4.2 基于Baidu Map SDK的吊篮分布定位
        5.4.3 改进的针对行政区域的多点聚合
    5.5 实时监控模块的设计与实现
        5.5.1 实时工况参数监控
        5.5.2 实时视频监控
        5.5.3 历史图片查询
    5.6 消息中心模块的设计与实现
    5.7 本章小结
第六章 系统的部署与运行
    6.1 系统部署方案
        6.1.1 部署环境
        6.1.2 基于Docker的容器化部署
    6.2 客户端运行效果
    6.3 本章小结
第七章 总结与展望
    7.1 总结
    7.2 展望
参考文献
作者在攻读硕士学位期间发表的论文与获奖情况

(9)虚拟现实环境下人机交互与设备远程操控关键技术研究与应用(论文提纲范文)

摘要
abstract
第一章 绪论
    1.1 研究背景和意义
        1.1.1 课题来源
        1.1.2 研究背景
        1.1.3 研究意义
    1.2 国内外研究现状
    1.3 目前存在的主要问题
    1.4 本文结构
第二章 虚拟现实环境下人机交互与设备远程控制框架体系
    2.1 虚拟现实环境下人机交互与设备远程控制框架体系
        2.1.1 虚拟现实环境下智能设备远程控制系统框架
        2.1.2 设备远程控制系统结构模型
        2.1.3 虚拟现实环境下人机交互与设备远程控制系统构建过程
    2.2 虚拟现实环境下人机交互与设备远程控制关键技术
        2.2.1 设备运动过程数据采集技术
        2.2.2 场景实时构建和3D显示技术
        2.2.3 设备远程操控技术
第三章 基于多层神经网络和机器视觉的数据采集技术
    3.1 基于多层神经网络和机器视觉的数据采集方法
    3.2 视觉标记的设计
    3.3 视觉标记的识别算法
    3.4 基于多层神经网络的视觉标记定位算法
        3.4.1 神经网络结构
        3.4.2 训练样本的生成
        3.4.3 训练神经网络
        3.4.4 算法编程实现
    3.5 本章小结
第四章 虚拟场景实时构建与3D显示技术
    4.1 虚拟场景实时构建方法
        4.1.1 实时场景构建方法
        4.1.2 Pro/Engineer+3dMax+Unity3D建模
        4.1.3 建立模型物理驱动
    4.2 3D显示技术
        4.2.1 立体成像原理
        4.2.2 眼镜式立体显示
        4.2.3 基于HTC VIVE的显示系统搭建
        4.2.4 UI界面
    4.3 本章小结
第五章 基于PLC的低延时、安全远程控制技术
    5.1 远程控制系统的通信延时问题分析
    5.2 远程控制系统的通信安全问题分析
    5.3 基于PLC的设备远程控制
        5.3.1 PLC结构原理和选型
        5.3.2 PLC程序设计和与被控设备连接
        5.3.3 PLC与上位机应用程序的连接
    5.4 本章小结
第六章 虚拟现实环境下设备远程控制系统集成和测试
    6.1 虚拟现实环境下设备远程控制系统
    6.2 系统集成
    6.3 系统运行测试
    6.4 本章小结
第七章 总结与展望
    7.1 总结
    7.2 展望
致谢
参考文献
附录1 攻读硕士学位期间取得的学术成果
附录2 专利及获奖情况

(10)云联络中心客户端关键技术的研究和实现(论文提纲范文)

摘要
ABSTRACT
符号对照表
缩略语对照表
第一章 绪论
    1.1 课题背景及研究意义
        1.1.1 跨平台组件化混合开发的应用
        1.1.2 跨平台多媒体通信技术的应用
        1.1.3 课题研究的意义
    1.2 国内外研究现状
        1.2.1 移动端跨平台组件化混合开发的发展
        1.2.2 跨平台多媒体通讯技术的发展
    1.3 本文研究内容
    1.4 论文组织结构
第二章 系统总体设计
    2.1 总体需求分析
        2.1.1 功能需求
        2.1.2 非功能需求
    2.2 系统设计原则
    2.3 系统整体框架设计
    2.4 系统体系结构设计
    2.5 本章小结
第三章 跨平台多媒体通信关键技术研究与实现
    3.1 跨平台即时消息模块的研究与实现
        3.1.1 WebSocket协议的原理
        3.1.2 文本类消息功能
        3.1.3 文件类消息功能
        3.1.4 表单消息功能
        3.1.5 WebSocket管理类及其相关类的设计与实现
    3.2 跨平台实时通信模块的研究与实现
        3.2.1 WebRTC开源库
        3.2.2 跨平台实时通信模块的设计与实现
        3.2.3 WebRTC管理类及其相关类的设计与实现
    3.3 视频编码方案的对比与研究
        3.3.1 H.264 编码方案研究
        3.3.2 H264、VP8视频编码方案横向对比分析
    3.4 本章小结
第四章 跨平台组件化混合开发关键技术
    4.1 跨平台组件混合开发的研究与实现
        4.1.1 FlutterBoost原理
        4.1.2 FlutterBoost集成实现
    4.2 跨平台UI交互模块的设计与实现
        4.2.1 MVVM架构与设计
        4.2.2 View层设计
        4.2.3 ViewModel层设计与实现
    4.3 跨平台网络通信组件的设计与实现
        4.3.1 网络通信分层以及原理
        4.3.2 子模块的设计与实现
    4.4 跨平台图片管理组件的设计与实现
        4.4.1 总体设计
        4.4.2 四级缓存策略
        4.4.3 图片的加载处理和管理框架的研究和实现
        4.4.4 图片管理组件的实现
    4.5 跨平台数据持久化模块的设计与实现
        4.5.1 小数据存取
        4.5.2 大数据存取
    4.6 本章小结
第五章 系统测试
    5.1 功能测试
    5.2 系统性能测试
    5.3 跨平台兼容性测试
    5.4 本章小结
参考文献
致谢
作者简介

四、利用C++ Builder实现屏幕图像的发送和接收(论文参考文献)

  • [1]基于人眼跟踪的Android平台裸眼3D视频播放器设计与实现[D]. 张恒. 北京邮电大学, 2021(01)
  • [2]面向行人检测的多画面智能切换系统研究与实现[D]. 黄小勇. 桂林理工大学, 2021(01)
  • [3]基于安卓手机的电脑鼠标的设计与实现[D]. 蒋毅. 电子科技大学, 2021(01)
  • [4]办公环境中视觉疲劳检测系统的设计[D]. 王闯. 哈尔滨理工大学, 2021(09)
  • [5]一种新型数字电视软件系统的设计与实现[D]. 张烨. 大连交通大学, 2020(06)
  • [6]基于可见光通信的物联网设备调试交互研究[D]. 李成林. 浙江工业大学, 2020(02)
  • [7]图像压缩编解码的FPGA设计与实现[D]. 任静. 南京林业大学, 2020(01)
  • [8]基于智能吊篮的高空作业远程视频监控系统的设计与实现[D]. 陈旭璇. 东南大学, 2020(01)
  • [9]虚拟现实环境下人机交互与设备远程操控关键技术研究与应用[D]. 刘根. 郑州轻工业大学, 2020(07)
  • [10]云联络中心客户端关键技术的研究和实现[D]. 唐恒博. 西安电子科技大学, 2020(05)

标签:;  ;  ;  ;  ;  

使用C++ Builder实现屏幕图像的发送和接收
下载Doc文档

猜你喜欢