华为西安博士后工作站课题发布

Gauss松鼠会 探花 2021-07-26 19:51:26

华为是全球领先的ICT(信息与通信)基础设施和智能终端提供商,我们致力于把数字世界带入每个人、每个家庭、每个组织,构建万物互联的智能世界。

      我们聚焦全联接网络、智能计算、创新终端三大领域,在产品、技术、基础研究、工程能力等方面持续投入,使能客户数字化转型,构建智能社会的基石。坚持多路径、多梯次、多场景化,构建解决方案竞争力持续领先。

欢迎加入华为西安博士后工作站,

共同参与挑战性课题研究,

一起探索未知,创造未来!

招聘对象

已取得或即将取得相关领域博士学位,且获得博士学位不超过3年。

您将获得

1、业界最前沿科研课题;

2、行业领军人物、高校领军教授双导师培养;

3、有竞争力的薪酬待遇。

简历投递

请投递简历至:

postdocxa@huawei.com

邮件标题请注明:

【博士后应聘】姓名+毕业院校+研究课题

研究课题一览表

部门名称

研究课题

消费者BG

分布式终端通信与互联

消费者BG

分布式终端操作系统架构

Cloud BU

AI与算法

Cloud BU

下一代大规模分布式云计算调度系统研究

数据存储与机器视觉产品线

AI白板书写体验、交互准确率提升

数据存储与机器视觉产品线

OCR文字图形表格多语言混合识别

计算产品线

HPC Workload 建模仿真、特征分析和自动优化研究

计算产品线

安全计算技术和标准研究

海思

超高速互联接口

2012实验室中央研究院

无线通信中AI泛化性研究

2012实验室中央研究院

AI可解释性研究

2012实验室中央研究院

面向IP网络的新型神经网络研究

2012实验室中央研究院

超高性能转发算法、架构及模型研究

2012实验室中央研究院

超高速光电互联技术研究

2012实验室中央研究院

序列数据弱监督学习算法与理论研究

光产品线

粗颗粒可重构计算及可编程矩阵芯片架构研究

无线网络产品线

5.5G Massive MIMO空口算法技术

(本次新增课题)

无线网络产品线

高效通信基带算法芯片处理技术

(本次新增课题)

无线网络产品线

大规模天线系统中的非线性信号处理技术(本次新增课题)

无线网络产品线

基于AI空口架构的大规模天线系统

(本次新增课题)

2012实验室中央软件院

去中心化/ 基于Wait-Free的新型分布式数据库并发控制的新型分布式数据库架构(本次新增课题)

2012实验室中央软件院

基于新硬件及计算存储分离的数据库架构(本次新增课题)

2012实验室中央软件院

以内存为中心的下一代分布式数据库存储引擎(本次新增课题)

 

消费者BG

课题1:分布式终端通信与互联

研究计划:

端-端、端-管-云 无线通信的发现连接、传输技术的跟踪和研究:通过分布式软总线通信技术和网络技术将不同类型的终端组装成场景化超级终端。主要方向:自发现与自组网、资源与信道分配策略、空口资源管理、通路服务质量保障机制、干扰与退让机制、移动性管理、无线网络性能建模与分析、软硬协同的通信技术、软件定义硬件及通信等关键技术。

终端操作系统从单设备OS走向支持更多IoT智能终端分布式OS,以原生系统级分布式让不同设备组成一个超级终端,让用户像使用一个终端一样使用不同设备是未来趋势,华为首创了业界首个异构非对称分布式操作系统。

招聘要求:

已取得或即将取得通信领域博士学位;具有无线通信、计算机、通信芯片、信号与系统等相关专业背景;具有一定的科研工作能力和团队合作精神,热爱科研工作,具备良好的学术诚信、道德品质、沟通能力和团队合作精神。

课题2:分布式终端操作系统架构

研究计划:

分布式终端操作系统技术的研究:分布式终端操作系统是从单设备OS走向支持更多IoT智能终端分布式OS,以原生系统级分布式让不同设备组成一个超级终端,让用户像使用一个终端一样使用不同设备。主要方向:分布式软总线、分布式MSDP感知、分布式数据管理、分布式应用框架、图形交互等。

终端操作系统是终端产业发展的基础,也是软件技术挑战度极高的专业领域。目前尖端技术被苹果、微软、谷歌等少数工作所掌握。华为提出的分布式终端操作系统,是业界首个异构非对称分布式操作系统架构,在具备巨大市场潜力的同时,在技术上面临前所未有的挑战。对中国掌握最先进的终端操作系统设计具有重要意义。

招聘要求:

已取得或即将取得通信领域博士学位;具有无线通信、计算机、通信芯片、信号与系统等相关专业背景;具有一定的科研工作能力和团队合作精神,热爱科研工作,具备良好的学术诚信、道德品质、沟通能力和团队合作精神。

 

Cloud BU

课题1:AI与算法

研究计划:

云上资源动态调度算法和仿真平台关键技术研究:研究内容包括中心云和边缘云场景。中心云上场景需要从服务提供方的角度定义问题,仿真动态变化场景,系统性进行调度及其相关算法研究。边缘云场景需要围绕端-边-云协同机制进行研究,包括收益管理、网络设计和资源/流量调度。研究方法包括但不限于组合优化中的随机/鲁棒优化、线性/整数规划、在线优化、多智能体强化学习等决策理论方法等。

具体研究解决资源调度中若干个关键问题

1、VM调度中,如何结合业务问题对调度问题进行系统建模和求解;

2、端到端的资源全生命周期优化的问题建模、拆解,关键子问题的求解;

3、云边协同下的多目标资源优化建模和求解;

4、媒体网络设计相关的数学优化问题求解。

招聘要求:

对博士后的能力要求(含学术能力、经验等):计算机、应用数学专业博士,CCF-A类顶会论文至少1篇,算法、数学功底好,工程能力强。

课题2:下一代大规模分布式云计算调度系统研究

研究计划

云计算的发展推动了无数产业的数字化转型和智能化,越来越多的应用业务也都转移到云上。云上业务规模的空前增长以及其复杂性和动态性,云上业务规模的空前增长以及其复杂性和动态性,业务性能面临巨大挑战。

如何保障用户的数据隐私,和业务性能的稳定性,同时降低云数据中心的运营成本,提高资源利用率成为云提供商面临的重要问题。

本课题研究真实的云系统、云业务需求与约束,科学地、系统地对其中一个或者几个问题建立数学模型和评价标准,通过机器学习和运筹优化方法对问题求解、评估和应用。

同时本课题通过分析不同云端应用在资源层面和微架构层面的资源消耗,感知不同应用的特征,利用不同类型应用特征优化资源利用率,削减云数据中新能耗。

研究方法包括但不限于:分布式机器学习,运筹优化,深度学习。

课题目标:

1、资源池的健康度评价和优化模型,资源池健康度涉及多个方面的优化与trade-off,比如销售量、扩容量、预留量、SLA、成本和盈利等,通过建立一个评估和优化模型,指导资源池的健康运行.

2、云服务SLA最优化保障模型和优化方法,通过理论指导模型来确保云服务SLA可预期/可达成。

3、云资源在线调度和离线调度混合优化模型和方法,提高资源利用率20%以上。

4、建立更智能的业务性能模型,提高异常检测和定位精度到90%以上。

5、.建立虚拟机功耗模型,提高虚拟机的功耗建模平均误差小于5%,最大误差小于15%。

6、建立系统的微架构层面的性能优化与控制,为单体主机提供更好的性能和资源分配,在单体主机上调度资源分配不变动态复用的基础上提高5%的性能。

招聘要求:

已取得或即将取得计算机、应用数学专业博士学位,CCF-A类顶会论文至少1篇,算法、数学功底好,工程能力强。

 

数据存储与机器视觉产品线

课题1:AI白板书写体验、交互准确率提升

研究计划:

基于红外屏和电容屏的电子白板书写体验、交互准确率提升,包括主动笔交互、手笔协同、触控手势、书写延迟优化、书写笔迹渲染美化等课题研究。完成关键算法、软件架构实现。

招聘要求:

1、已取得或即将取得相关领域博士学位;

2、精通交互与协作领域的理论技术,熟悉触控、人机交互等技术与应用;

3、有交互与协作技术开发经验,精通C/C++/JAVA开发语言;

4、熟悉常见GUI渲染平台上的图形应用开发,熟悉OpenGL编程。

课题2:OCR文字图形表格多语言混合识别

研究计划:

基于触控大屏的手绘图文识别研究,应用于企业办公协同以及教育等不同行业场景,包括不同语种手写文字识别、手写公式识别、手绘图文图表识别、拍照草图识别美化等课题。完成关键算法、软件架构实现及原型验证。

招聘要求:

1、在国内外知名高校获得(1年内)或即将获得相关领域(计算机、机器视觉、计算机视觉、AI等)的博士学位;

2、熟悉所研究领域国际发展状况,具有较强的学术论文及英文写作能力;在深度学习、OCR领域有较为突出的成果;

3、优秀的自我激励与团队合作能力;

4、在旗舰期刊或会议上发表过高水平文章,有较强的科研能力,较好的数据处理能力及英语交流能力;

5、具有独立科研能力、团队工作精神以及良好沟通能力。

 

计算产品线

课题1:HPC Workload 建模仿真、特征分析和自动优化研究

研究计划:

负责HPC高性能计算解决方案核心技术的研究工作,包括:

1、HPC 应用特征分析,包括计算、访存、IO、和通信特征分析;

2、Workload建模和仿真,通过对各类典型应用建模和仿真,指导HPC领域的系统架构设计;

3、应用自动优化技术,包括自动优化工具和算法研究。 

招聘要求:

1、已取得或即将取得相关领域博士学位;

2、具有计算机系统结构、算法研究、高性能计算等相关专业背景;

3、具有很强的科研工作能力和团队合作精神。

课题2:安全计算技术和标准研究

研究计划:

安全计算是关注数据在使用时候的安全,其安全防护是业界技术难点,也是产业标准热点。本研究课题包括通用计算的安全计算和AI计算的安全计算技术,通过软硬件和安全技术的配合确保数据在运算时的安全,并研究适合产业应用的安全计算标准框架。

招聘要求:

具有密码学或网络安全的博士学位,有数据在使用时的安全保护研究经验,熟悉计算体系架构并有一定原型开发的能力,有产业标准等产业发展参与项目优先。

 

海思

课题1:超高速互联接口

研究计划:

子方向1:面向通信领域超大带宽互联接口(>100Gbps)需求,基于器件材料、光、模拟电路、算法等研究,引领低成本超高速互联接口的演进方向、实现架构和关键技术。

子方向2:面向计算CPU互联低延时接口(CPU2CPU,CPU2Memery)需求,基于互联协议、模拟电路和算法等研究,引领低成本计算CPU高速互联接口的实现架构和关键技术。

子方向3:面向穿戴、便携式和生物超低功耗高速互联接口需求,基于器件、模拟电路和互联协议等研究,引领低成本超低功耗高速互联接口的实现架构和关键技术。

招聘要求:

已取得或即将取得相关领域博士学位;有互联接口技术架构与方案相关经验者优先。具有模拟电路设计、互联协议、通讯算法、器件材料研究之一的相关经验;具有一定的科研工作能力和团队合作精神,热爱科研工作,具备良好的学术诚信、道德品质、沟通能力和团队合作精神。

 

2012实验室中央研究院

课题1:无线通信中AI泛化性研究

研究计划:

AI应用于无线通信物理层算法时,通常在给定场景下可以带来明显的增益,但是在现网复杂多变的无线环境中,性能鲁棒性差,有些场景下甚至会有负增益。在信道估计,符号检测,编译码等物理层核心通信模块AI化过程中,都出现了AI算法的泛化和鲁棒性问题。AI算法的泛化性已成为AI算法在物理层中规模应用的主要瓶颈之一。

本课题主要研究AI算法在无线通信不同场景下的泛化性能提升,目标是不同场景下AI都能逼近最优性能。研究内容包括但不限于模型驱动和数据驱动相结合的AI算法、元学习算法、小样本学习算法等。

招聘要求:

1、已取得或即将取得相关领域博士学位;

2、有扎实的数学理论功底,熟练掌握深度学习、强化学习等机器学习理论与算法;

3、有元学习,模型数据双驱动科研经历者优先;

4、熟练掌握C、C++、Python等编程语言;

5、以第一作者发表过相关领域的国际一流期刊/会议高水平论文;

6、具有较强的英文阅读及写作能力。

课题2:AI可解释性研究

研究计划:

深度学习大大推动了人工智能的发展,但由于可解释性差,它就像一个黑盒子,阻碍了人工智能的落地和商业化。黑盒模型的风险在于做出和使用的决策可能不合理、不合法,或者无法对其行为进行详细的解释,落地时经常带来不可预知的风险。可解释性是保障人工智能安全性的一个重要手段,有利于加速推广人工智能的落地应用。

本课题主要研究AI的可解释性,研究内容包括但不限于基于信息瓶颈、常微分方程、偏微分方程的AI可解释性研究,AI风险评估与度量方法研究等。

招聘要求:

1、已取得或即将取得相关领域博士学位;

2、有扎实的数学理论功底,熟练掌握深度学习、强化学习等机器学习理论与算法;

3、有信息瓶颈,偏微分方程科研经历者优先;

4、熟练掌握C、C++、Python等编程语言;

5、以第一作者发表过相关领域的国际一流期刊/会议高水平论文;

6、具有较强的英文阅读及写作能力。

课题3:面向IP网络的新型神经网络研究

研究计划:

当前网络AI的研究主要是借用图像识别、自然语言处理等其他领域的现有NN技术(如CNN、RNN),缺乏对IP网络特征的适配,需要研究一种面向IP网络领域的特定新型神经网络FlowNN,以对网络流量进行高精度的刻画和建模,实现针对IP流量的高效智能表征、推断和控制。

招聘要求:

1、已取得或即将取得相关领域博士学位,计算机、网络、数学等相关专业背景;

2、熟悉主流机器学习/深度学习模型、优化控制理论及相应监督/自监督/强化学习/元学习等基础理论;

3、在网络、数学或AI方向Top期刊/会议上有发表论文者优先。

课题4:超高性能转发算法、架构及模型研究

研究计划:

在摩尔定律消失的技术背景下,高性能网络转发芯片面临内存墙,面积墙,功耗墙等技术因素的制约,已经难以单纯靠芯片工艺持续提高性能。需要在算法、架构、协议体系等多方面进行综合创新,找到网络转发的新模型、转发芯片的新架构。

招聘要求:

1、已取得或即将取得相关领域博士学位,计算机、网络等相关专业背景;

2、熟悉主流网络和计算芯片的体系结构;熟悉AI, HPC,存储等以数据为中心的应用场景;

3、在相关方向TOP期刊/会议上有发表论文者优先。

课题5:超高速光电互联技术研究

研究计划:

本课题研究下一代224G高速光电互联和信号完整性关键技术,期望能够找到低成本、低功耗的224G高速互联解决方案。提前完成关键技术布局,推动标准落地,引领业界发展,包括如下方向之一:224G高速链路无源信道、信号完整性、收发器、算法设计和验证,包括连接器、TX/RX、ADC/DAC、CDR、光电模块和信道均衡算法、软硬判FEC算法。

招聘要求:

1、已取得或即将取得相关领域博士学位;

2、具备高速链路、信号完整性和模拟射频电路设计经验,且有较高的论文和专利写作能力,具有良好的沟通协调能力。

课题6:序列数据弱监督学习算法与理论研究

研究计划:

课题涉密,面试时具体沟通。

招聘要求:

1、已取得或即将取得相关领域博士学位,计算机、电子通信、应用数学、或自动控制等专业方向;

2、数学基础好,编程能力强,在以下一个或多个领域有深厚积累和/或技术专长:数据科学基础理论;机器学习/深度学习;智能决策推理;人工智能交叉学科。

3、有优秀的科研成果,在顶级期刊或会议发表过高水平论文。

4、有独立工作和创新能力,具备诚实的科研态度,和良好的沟通能力、团队协作精神。

 

光产品线

课题1:粗颗粒可重构计算及可编程矩阵芯片架构研究

研究计划:

网络处理核是光网络分组业务重要算法,有成本和功耗约束,算法结果直接影响芯片成本,现有技术以细粒度算法为主,无法在理论上获得最优值,也无法保证所有网络都能求解出良好结果。

研究粗颗粒矩阵可编程算法,实现流水与可编程矩阵间性能不损失,满足成本及功耗约束,评估当前结果与理论极限的差距。

招聘要求:

1、已取得或即将取得相关领域博士学位;

2、计算机、数学等专业毕业研究型博士,熟悉计算机体系结构,具备网络处理器架构经历更佳。

 

无线网络产品线

课题1:5.5G Massive MIMO空口算法技术

研究计划:

课题涉密,面试时具体沟通。

招聘要求:

1、已取得或即将取得相关领域博士学位,信息论、无线通信、编解码、信号处理、统计学、运筹学等相关专业;

2、具有无线通信中的物理层关键技术相关课题经验和科研经历;

3、具备系统或链路级仿真评估能力。

课题2:高效通信基带算法芯片处理技术

研究计划:

课题涉密,面试时具体沟通。

招聘要求:

1、已取得或即将取得相关领域博士学位,微电子、集成电路设计等专业;

2、熟悉常用的ASIC、DSP等芯片设计方法,有一定实际电路设计经验,具备基本的信号处理算法知识,熟悉基本的性能分析方法;具备无线通信、AI等算法设计经验优先;

3、熟练掌握C/C++代码开发,能熟练运用仿真工具进行设计分析工作。

课题3:大规模天线系统中的非线性信号处理技术

研究计划:

课题涉密,面试时具体沟通。

招聘要求:

1、已取得或即将取得相关领域博士学位;无线通信,信号处理,控制论,统计学等相关专业;

2、建议有无线通信中物理层、中射频等关键技术相关课题和科研经验;

3、有扎实的相关理论基础、电磁仿真、原型机经验。

课题4:基于AI空口架构的大规模天线系统

研究计划:

课题涉密,面试时具体沟通。

招聘要求:

1、已取得或即将取得相关领域博士学位;无线通信、机器学习、人工智能等相关专业;

2、熟悉无线通信中的物理层关键技术,如CSI获取、估计、预编码、接收机等,在神经网络与通信物理层中的应用有高水平论文发表,具有大规模MIMO信号处理、深度学习、机器学习相关的研究、课题经历;

3、具有较强的代码开发能力,熟练使用python、pytorch、c/C++等。

 

2012实验室中央软件院

课题1:去中心化/ 基于Wait-Free的新型分布式数据库并发控制的新型分布式数据库架构

研究计划:

当前分布式事务采用中心化事务 ID 的方式进行全局保序,在这种条件下该中心化点存在全局串行点问题,其性能直接影响分布式数据库的扩展性问题。采用全局授时的方案又存在性能问题,在面向未来的分布式数据库期望基于CRDT的Wait-Free技术应用在事务并发控制上,通过batch化外部读一致性点的方式从理论到实践上突破该问题。

招聘要求:

1、已取得或即将取得相关领域博士学位;计算机、数据库、计算系统架构、数学等专业或同等学术背景;

2、从事分布式系统、分布式存储、分布式数据、并发控制、计算架构等领域的研究背景和经历;

3、熟悉分布式共识、高性能通信系统、事务并发控制、新硬件如GPU、AEP、RDMA等系统应用背景;

4、品行端正,科学研究态度严谨,具有独立科研工作能力、良好的团队合作精神和沟通能力。

课题2:基于新硬件及计算存储分离的数据库架构

研究计划:

当前除x86指令集之外,ARM 指令集处理器、risc-v 指令集处理器变成了可选项,对于系统软件数据库来说需要针对不同的指令集处理器做定向的优化,如不同指令集处理器其跨socket 延时、原子操作时间、内存序等的不同,在不做定向优化的状况下甚至会导致数据库正常功能、数据一致性等方面的问题,例如:x86 处理器采用强内存序、ARM处理器采用弱内存序,在通过变量(非信号量等同步操作元语)控制并发操作时,x86 处理器是不需要进行显示memory barrier 设置,而 ARM 是需要显示设置的。当前ARM处理器的服务器已经变为商用可获得,如何在 ARM 处理器自身众核、跨片延时条件下、原子操作性能条件下能将 ARM 处理器能力发挥到极致是一个数据库体系结构面临的挑战。面对 ARM 处理器众核,在大并发挑战下,对服务器内存总线、网络、IO 等都会造成巨大的压力,这些会反向对内存总线、网络、IO 提出新的功能和性能诉求;另外当前在计算平台上面出现了 CPU、GPU、NPU 共存的局面,每个处理器有自己的计算特征和擅长的逻辑操作、计算操作过程,而 OS 仅对 CPU 的计算资源进行了虚拟化使得编程开发者无须关注 CPU上程序的调度、资源管理等问题,而对于 GPU、NPU均需要编程者自己处理并发、内存、数据传递等过程。例如在数据库内使用 GPU 进行加速操作,需要数据库内核自行处理并发等,带来极大的不便,如何联合 OS 一起扩展异构处理平台,提升异构硬件编程易用性等成为一个系统问题。另一方面 NPU 有着远远超过 CPU的计算能力,是否能够使用 NPU 的张量计算能力来进行数据库操作的加速会是一个有趣的技术问题。

招聘要求:

1、已取得或即将取得相关领域博士学位;计算机、数据库、计算系统架构、数学等专业或同等学术背景;

2、从事分布式系统、分布式存储、分布式数据、并发控制、计算架构等领域的研究背景和经历;

3、熟悉分布式共识、高性能通信系统、事务并发控制、新硬件如GPU、AEP、RDMA等系统应用背景;

4、品行端正,科学研究态度严谨,具有独立科研工作能力、良好的团队合作精神和沟通能力。

课题3:以内存为中心的下一代分布式数据库存储引擎

研究计划:

以单机共享buffer为核心设计的存储引擎体系,到以分布式share-nothing为核心设计的分布式存储引擎其设计理念以及数据库事务要求的强一致性约束,使得分布式的整体提交受限于O(n2),大大限制了分布式事务系统的线性扩展能力,在当前硬件总线能力不断提升,单机内存不断增长的状况下,围绕新的内存总线的思考逻辑,在单DC内进行计算和内存解耦,去除原始的基于message的两阶段提交过程,能够大大的提升致性效率,这对整个数据库存储引擎提出很大的设计挑战。

招聘要求:

1、已取得或即将取得相关领域博士学位;计算机、数据库、计算系统架构、数学等专业或同等学术背景;

2、从事分布式系统、分布式存储、分布式数据、并发控制、计算架构等领域的研究背景和经历;

3、熟悉分布式共识、高性能通信系统、事务并发控制、新硬件如GPU、AEP、RDMA等系统应用背景;

4、品行端正,科学研究态度严谨,具有独立科研工作能力、良好的团队合作精神和沟通能力。

更多请参见https://mp.weixin.qq.com/s/MJ3BsDcqbpBMHHqhKo2geQ

 

...全文
2031 1 打赏 收藏 转发到动态 举报
写回复
用AI写文章
1 条回复
切换为时间正序
请发表友善的回复…
发表回复
Gauss松鼠会 探花 2021-07-26
  • 打赏
  • 举报
回复 2

欢迎大家积极参与

79,226

社区成员

发帖
与我相关
我的任务
社区描述
汇集数据库的爱好者和关注者,大家共同学习、探索、分享数据库前沿知识和技术,像松鼠一样剥开科学的坚果;交流Gauss及其他数据库的使用心得和经验,互助解决问题,共建数据库技术交流圈。
数据库数据仓库 企业社区 北京·海淀区
社区管理员
  • Gauss松鼠会
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告

欢迎大家同时关注Gauss松鼠会专家酷哥。

https://www.zhihu.com/people/ku-ge-78-98

试试用AI创作助手写篇文章吧