頭條 Wi-Fi先天性漏洞底层架构缺陷AirSnitch曝光 2 月 27 日消息,科技媒体 Tom's Hardware 今天(2 月 27 日)发布博文,报道称加州大学河滨分校的研究团队发现严重 Wi-Fi 漏洞,将其命名为 AirSnitch,在网件(Netgear)等五款热门家用路由器上均成功复现。 最新資訊 空间新技术试验卫星又获一批科技成果 11日,记者从中国科学院获悉,经过四个多月的在轨测试与试验,由该院微小卫星创新院抓总研制的创新X系列首发星——空间新技术试验卫星(SATech-01),近期又获得了一批令人振奋的科学与技术成果。其中,包括我国首幅太阳过渡区图像、国际迄今最亮伽马暴、国产量子磁力仪首次获得的全球磁场勘测图。 發(fā)表于:2023/1/16 “天智二号”D星升空 我国卫星“智能化”加速 1月15日11时14分,中国科学院软件研究所牵头研制的“天智二号”D星搭载长征二号丁运载火箭在太原卫星发射中心发射升空,成功进入预定轨道。 發(fā)表于:2023/1/16 基于激光通信互联 遥感小卫星星座建成 1月15日,记者在山东产业技术研究院齐鲁卫星国际创新中心,通过视频观看了齐鲁卫星升空的一幕:伴随着巨大的轰鸣声,矗立在太原卫星发射中心发射架上的长征二号丁运载火箭腾空而起。17分钟后,该火箭顺利将齐鲁二号、齐鲁三号等14颗卫星送入预定轨道。 發(fā)表于:2023/1/16 一种基于图像识别和光电检测的单兵战术训练考核系统 单兵战术考核是融合智能、技能、体能为一体的综合体现,目前常用战术训练的训练场地、器材千差万别,缺乏必要的规范与标准性。基于图像识别和光电检测技术设计实现了智能化的单兵战术训练考核系统,该系统主要利用多对光电传感器代替传统铁丝网对训练者的进入、离开、跃进、冲刺以及训练过程中的违规触碰信号进行采集、处理、实时显示,并结合视频图像识别技术,对战术动作加以比对,以判断训练者通过全部掩体的时间,动作要领是否规范。采用无线传输方式,将考核成绩传送至后台管理中心进行分析统计,用于提高单兵考核训练的时效性、准确性、公平性。 發(fā)表于:2023/1/16 商业航天新蓝海:卫星在轨服务 媒体数据显示,仅第一季度,国内至少有21家商业航天企业宣布获得融资,总金额超过37亿元人民币。这些企业,主要集中在航天产业链的上游和中游环节。 發(fā)表于:2023/1/13 2022:卫星通信的不凡一年 过去的一年可以说是卫星通信行业有史以来最动荡的一年。在2021年 10月至2022年9月这12个月中,行业见证了多个星座取得重大进展、整个价值链上多发的并购活动以及卫星直连手机等相关重大公告的发布。所有这些都发生在卫星通信行业疫情后的复苏之际。使用量的增长也极有可能使得行业在2022年恢复收入的增长。 發(fā)表于:2023/1/13 工业控制系统网络攻击预测技术研究 面对复杂的网络安全形式,攻击方常采用大量的信息侦查、漏洞利用和混淆技术在网络进行恶意活动或破坏行为。虽然当前网络安全态势感知平台尽可能地发现和监测新漏洞的利用过程,但是攻击预测的准确率和精确率都不尽如人意,需要在目前预测技术的基础上研究更加高级的算法将安全事件自动关联到对应的资产和攻击类型上,对可能发生的网络安全攻击进行预警和风险评估,实现对网络安全事件的精准预测。 發(fā)表于:2023/1/13 致敬中国商业航天,在2022逆境中超预期表现! 2022年给大家留下什么印象? 劳累、焦虑、变动、不可抗力,甚至还有身体不适,可能构成了大家对这一年的记忆。 但困难当中,总还有一些光亮给人以希望。我国的商业航天,或许就是其中之一。 發(fā)表于:2023/1/13 基于5G架构超密集组网粒子群优化算法改进 随着移动通信技术的发展,传统智能终端设备无法满足快速增长的海量数据计算要求,移动边缘计算为物联网中移动用户提供了低延迟和灵活的计算方案。综合考虑边缘服务器上有限的计算资源以及网络中用户的动态需求,提出通过二进制粒子群优化算法分配发射功率优化传输能耗。将请求卸载与资源调度作为双重决策问题进行分析,基于粒子群优化算法提出了一种新的多目标优化算法求解该问题。仿真结果表明,二进制粒子群优化算法可以节省传输能耗,且具有良好的收敛性。所提出的新算法在响应率方面优于现有算法,在动态边缘计算网络中可以保持良好的性能。 發(fā)表于:2023/1/13 基于BERT-CNN的新闻文本分类的知识蒸馏方法研究 近年来,随着大数据时代进入人类的生活之后,人们的生活中出现很多无法识别的文本、语义等其他数据,这些数据的量十分庞大,语义也错综复杂,这使得分类任务更加困难。如何让计算机对这些信息进行准确的分类,已成为当前研究的重要任务。在此过程中,中文新闻文本分类成为这个领域的一个分支,这对国家舆论的控制、用户日常行为了解、用户未来言行的预判都有着至关重要的作用。针对新闻文本分类模型参数量多和训练时间过长的不足,在最大限度保留模型性能的情况下压缩训练时间,力求二者折中,故提出基于BERT-CNN的知识蒸馏。根据模型压缩的技术特点,将BERT作为教师模型,CNN作为学生模型,先将BERT进行预训练后再让学生模型泛化教师模型的能力。实验结果表明,在模型性能损失约2.09%的情况下,模型参数量压缩约为原来的1/82,且时间缩短约为原来的1/670。 發(fā)表于:2023/1/13 <…210211212213214215216217218219…>