頭條 中国科学院高精度光计算研究取得进展 1月11日消息,据《先进光子学》(Advanced Photonics)报道,在人工智能神经网络高速发展的背景下,大规模的矩阵运算与频繁的数据迭代给传统电子处理器带来了巨大压力。光电混合计算通过光学处理与电学处理的协同集成,展现出显著的计算性能,然而实际应用受限于训练与推理环节分离、离线权重更新等问题,造成信息熵劣化、计算精度下降,导致推理准确度低。 中国科学院半导体研究所提出了一种基于相位像素阵列的可编程光学处理单元(OPU),并结合李雅普诺夫稳定性理论实现了对OPU的灵活编程。在此基础上,团队构建了一种端到端闭环光电混合计算架构(ECA),通过硬件—算法协同设计,实现了训练与推理的全流程闭环优化,有效补偿了信息熵损失,打破了光计算中计算精度与准确度之间的强耦合关系。 最新資訊 基于FPGA的新型高速CCD图像数据采集系统 介绍一种基于Actel公司Fusion StartKit FPGA的线阵CCD图像数据采集系统。以FPGA作为图像数据的控制和处理核心,通过采用高速A/D、异步FIFO、UART以及电平转换、放大滤波、二值化电路和光学系统实现对图像数据的信号处理,并运用Visual Studio C++和Microsoft公司的基本类库MFC实现对采集数据的显示、绘图、传输控制等。利用搭建的系统平台实现对物体尺寸的测量,通过对所得的数据进行分析处理,明确测量的精度和可以达到的水平。对该系统在实时监控中的优点进行分析。 發(fā)表于:2018/8/8 基于FPGA的双T选频网络的设计与实现 为提高棱镜式数字激光陀螺稳光程回路中相敏信号解调效率,将较窄的带宽内对信号幅度增益大、波动小的双T选频网络数字化应用到数字激光陀螺解调电路中,使用FPGA进行算法设计,得到带宽为2 Hz的带通滤波器。在数字激光陀螺中与IIR滤波器进行对比实验,经过实际系统验证,信噪比提升了200%。 發(fā)表于:2018/8/8 西部数据公司(TEGILE品牌)在2018年GARTNER固态阵列的魔力象限中被评选为卓识远见者 西部数据公司( NASDAQ:WDC)今天宣布旗下Tegile品牌在2018年连续第四年在Gartner固态阵列的魔力象限中被评为的卓识远见者。* 發(fā)表于:2018/8/7 深度 | L2正则化和对抗鲁棒性的关系 虽然近年来对抗样本已经引起了广泛关注,并且它对机器学习的理论和实践来说都有很大意义,但迄今为止仍有很多不明之处。 發(fā)表于:2018/8/7 前沿 | CNN取代RNN?当序列建模不再需要循环网络 在过去几年中,虽然循环神经网络曾经一枝独秀,但现在自回归 Wavenet 或 Transformer 等模型在各种序列建模任务中正取代 RNN。 發(fā)表于:2018/8/7 基于AD9789的DVB-C调制系统的实现 设计了一个基于AD9789和低功耗FPGA Spartan-6的DVB-C调制系统。介绍了AD9789的基本结构、参数配置以及系统实现方式,给出了系统射频输出信号的实测结果,其性能指标符合国家标准。 發(fā)表于:2018/8/7 基于FPGA的动态目标跟踪系统设计 为了解决基于PC机的视频动态目标跟踪实时性瓶颈问题,设计出一种基于FPGA的动态目标跟踪系统。设计遵循图像处理金字塔模型,针对低层和中层算法简单、数据量大且存在一定并行性等特点采用FPGA硬件实现,而高层较复杂算法使用Nios II软核进行C语言编程。整个设计采用Verilog-HDL对算法完成建模与实现,并在QUARTUS II上进行了综合、布线等工作,最后以Altera公司的DE2开发板为硬件平台实现了整个系统。 發(fā)表于:2018/8/7 基于FPGA的数字图像水印实时嵌入系统的设计与实现 数字水印技术作为版权保护及真实性认证的重要手段越来越受到人们的关注。通常采用软件方法实现水印算法,但这种方法的实时性和安全性都不够理想。本文设计的硬件平台由Atlera公司提供的EP2C70F896C6型号的FPGA芯片和CMOS摄像头组成,该平台采用Verilog HDL 硬件描述语言实现DCT2算法及IDCT2算法,同时采用FIFO技术解决了系统各部分的时序问题。实验结果表明:对不同光线强度下采集到的图像均可实现水印的盲检测,并对篡改有良好的定位能力。 發(fā)表于:2018/8/7 一种应用于实时图像系统的USB2.0通信设计 针对小型化实时图像系统对移动性和高数据传输速率的迫切需求,提出了一种由USB2.0芯片、FPGA和图像传感器组成的便携式实时图像采集和传输系统。经实测,该系统能在207 Mb/s峰值传输速率下,实时采集并传输84 S/s、640×480 分辨率的实时图像数据。 發(fā)表于:2018/8/7 学界 | 谷歌大脑提出对抗正则化方法,显著改善自编码器的泛化和表征学习能力 自编码器因其优越的降维和无监督表征学习能力而知名,而过去的研究表明自编码器具备一定程度的插值能力。来自谷歌大脑的 Ian Goodfellow 等研究者从这一角度提出了一种新方法,显著改善了自编码器的平滑插值能力,这不仅能提高自编码器的泛化能力,对于后续任务的表征学习也会大有帮助。 發(fā)表于:2018/8/5 <…919293949596979899100…>