頭條 中国科学院高精度光计算研究取得进展 1月11日消息,据《先进光子学》(Advanced Photonics)报道,在人工智能神经网络高速发展的背景下,大规模的矩阵运算与频繁的数据迭代给传统电子处理器带来了巨大压力。光电混合计算通过光学处理与电学处理的协同集成,展现出显著的计算性能,然而实际应用受限于训练与推理环节分离、离线权重更新等问题,造成信息熵劣化、计算精度下降,导致推理准确度低。 中国科学院半导体研究所提出了一种基于相位像素阵列的可编程光学处理单元(OPU),并结合李雅普诺夫稳定性理论实现了对OPU的灵活编程。在此基础上,团队构建了一种端到端闭环光电混合计算架构(ECA),通过硬件—算法协同设计,实现了训练与推理的全流程闭环优化,有效补偿了信息熵损失,打破了光计算中计算精度与准确度之间的强耦合关系。 最新資訊 基于PLC和触摸屏的电镀生产线控制系统浅析 在工业生产控制过程中,PLC的应用非常广泛。在机械制造、石油化工、冶金钢铁、汽车、轻工业等领域的应用都得到了长足的发展,特别在冶金化工行业得到广泛应用。 發(fā)表于:2018/9/19 基于Zynq-7000的自动化监测系统BSP设计与实现 实现一种基于Zynq-7000全可编程片上系统(AP SoC)的板级支持包(BSP)设计方法及应用流程。该BSP设计主要面向工业自动化监测领域,提供了一种行之有效的嵌入式系统BSP实现流程,有利于提高工业自动化监测系统的开发效率。针对使用串行通信方式的工业监测设备,设计面向小型自动化监测系统的FPGA工程,并使用专门针对基于FPGA的片上系统而设计的PetaLinx工具构建嵌入式Linux系统。最后通过自行研制的基于Zynq XC7Z010系列型号芯片的硬件平台验证了BSP设计的正确性及稳定性。 發(fā)表于:2018/9/19 恩智浦将亮相2018杭州·云栖大会 全球最大的汽车电子及人工智能物联网芯片公司恩智浦半导体(纳斯达克代码:NXPI,以下简称“恩智浦”)将出席9月19日至22日召开的2018杭州·云栖大会,并集中展示包括智能网联汽车、移动支付、人脸识别、边缘计算和智能家居等方面的前沿应用和解决方案。 發(fā)表于:2018/9/18 别担心被AI抢饭碗啦!人工智能有望净创造5800万个新工作岗位 人工智能(AI)和自动化技术的发展可能导致未来五年有7500万个人类工作岗位被取代。不过,随着企业调整人类和机器之间的劳动力分配,将有1.33亿个新工作岗位被创造,这就意味着到2022年时将净增5800万个新岗位。 發(fā)表于:2018/9/18 这个三防硬盘太坚固了!3吨重压下毫发无伤! 威刚表示HD830移动硬盘是目前最好的三防硬盘,它采用铝合金材料打造出坚固的外壳,通过了美军严酷的MIL-STD-810G 516.6标准认证,可从1.22米掉落毫无损伤,并且可承受三吨的重压,有IP68放水/防尘认证,可在两米的水下长达两小时,你的数据放在这个移动硬盘里可以说是相当的安全。 發(fā)表于:2018/9/18 Intel M.2傲腾905P SSD已经准备就绪,10月底开卖 3D XPoint技术是Intel与美光联合开发的黑科技,虽然读写速度平平,但其读写寿命、4K小文件读写速度可说傲视群雄,缺点就是很贵啦。Intel发布至今,已经推出了多形态的产品,包括有傲腾加速SSD、傲腾SSD、傲腾内存。而其中消费级的Intel傲腾905P SSD是最火热的产品,除了有U.2、PCI-e两种接口外,现在还多了个M.2版本,这种用起来当然更加方便啦。 發(fā)表于:2018/9/18 55nm,华米发布首款集成AI的可穿戴处理器黄山1号 根据华米所说,他们发布全球智能可穿戴领域人工智能第一颗芯片:黄山1号,全球首款集成了AI神经网络的可穿戴处理器,拥有四大核心人工智能引擎:心脏生物特征识别引擎 、ECG、ECG Pro、心律异常监测引擎。 發(fā)表于:2018/9/18 基于Vivado HLS的Canny算法实时加速设计 针对Canny边缘检测算法在实时图像处理过程中运算耗时长、数据运算量大的缺点,研究了利用Vivado HLS实现Canny边缘检测算法的硬件加速方法。该方法由FPGA的逻辑资源生成算法对应的RTL级硬件电路,实现算法硬件加速。实验结果表明,该方法能快速实时检测图像边缘,有效降低FPGA设计图像算法的难度,可以应用到实时视频图像处理中。 發(fā)表于:2018/9/18 【论文集锦】您了解AES算法吗?——《电子技术应用》优秀论文集锦 高级加密标准(AES,Advanced Encryption Standard)为最常见的对称加密算法。微信小程序加密传输就是用这个加密算法的。《电子技术应用》近年来刊登了一系列与AES算法相关的技术文章,小编整理于此,以餮读者、作者。欢迎大家推广引用! 發(fā)表于:2018/9/18 EMNLP 2018 | 为什么使用自注意力机制? 近期,非循环架构(CNN、基于自注意力机制的 Transformer 模型)在神经机器翻译任务中的表现优于 RNN,因此有研究者认为原因在于 CNN 和自注意力网络连接远距离单词的路径比 RNN 短。 發(fā)表于:2018/9/17 <…70717273747576777879…>