大发注册-大发注册
大发注册2023-01-31 16:05

大发注册

为了这一刻,他坚持训练了24年10个月……******

11月28日

神舟十五号航天员名单中

邓清明的名字出现在其中

坚持训练24年10个月的他

终于圆梦!

为了这一刻,他坚持训练了24年10个月……

在神十五航天员见面会上

邓清明说

太空不会因为故事感人就敞开怀抱

“当确定我为神舟十五号乘组时

我的内心十分平静。”

 

邓清明出生于1966年3月

邓清明读高中的时候

13公里的上学路,每次得走两三个小时

书包里,背着母亲自己做的干粮与咸菜

他从小就能吃苦,要吃苦

1984年6月入伍

成为一名空军战斗机飞行员

 

1998年,邓清明与杨利伟一起

成为入选首批航天员的14人之一

为了尽早实现梦想

他不论白天黑夜,坚持训练

然而,他却曾三次与飞天擦肩而过……

为了这一刻,他坚持训练了24年10个月……

2010年

他入选成为神舟九号飞行任务备份航天员

所有考核标准

都与主份航天员一样

但最终,他遗憾落选

但他始终以正式航天员的标准要求自己

在地面按照一个手册

和航天员做一样的事情

做到哪一步就打一个钩

 

“作为备份的任务

不是从基地回来了,任务就结束了

我的战友安全回来了

这才是做备份的结束。”

 

2013年

“神十”飞行任务

因为微乎其微的分差

他再次与梦想擦肩而过

那一年,他的身体还出现了问题

在肾脏查出一块结石

然而,他却说

“已经等了16年

绝不能因为这几块小石头受影响”

 

经过与病魔的抗争,他的手术成功!

邓清明感慨道

“我的梦想重新又点燃了”

2016年神舟十一号任务

是他离飞天梦想最近的一次

在“神十一”最具挑战的33天模拟验证试验中

他和另一名航天员陈冬住进了

不到10平方米的密闭舱内

与外界完全隔绝

 

发射前一天,总指挥部召开会议

宣布由景海鹏、陈冬执行神舟十一号任务

邓清明说当时听到结果的时候

的确懵了一下

“当时什么都说不出来,停了一会儿

我转过身面对海鹏

紧紧地抱住了他

说了一句:海鹏,祝贺你!

海鹏也深情地回了一句

谢谢你,兄弟!”

 

截至2021年

当年第一批14名航天员中

唯一没有执行过飞天任务又仍在现役的

就是邓清明

如今56岁的他

选择继续留在航天员队伍中

和所有队友保持着同样的训练强度

为了这一刻,他坚持训练了24年10个月……

神舟十五号

瞄准11月29日23时08分发射

这是邓清明的圆梦时刻

也是中国航天的圆梦时刻

致敬邓清明

也致敬中国航天事业中的每一位“邓清明”

费俊龙、邓清明、张陆

祝你们成功!

综合:央视新闻、央视网、中国新闻网、人民网

整理:焦子原

聚焦人工智能技术前沿与治理 中外专家学者国际论坛建言献策******

  中新网北京12月5日电 (记者 孙自法)2021人工智能合作与治理国际论坛“人工智能技术前沿与治理”主论坛,12月5日在清华大学以线上线下结合方式举行,中外人工智能(AI)领域专家学者聚焦人工智能技术前沿与治理这一主题,发表主旨演讲建言献策,并深入研讨交流。

  美国国家科学院院士、美国艺术与科学院院士、约翰·贝茨·克拉克奖得主、斯坦福大学商学院技术经济学教授、以人为本人工智能研究所副所长苏珊·阿西(Susan Athey)认为,大学在指导人工智能创新方面可以发挥优先引导的关键作用。由于私营部门的技术人员缺乏伦理、哲学方面的训练,难以开发出具有可解释性的算法框架,深化这类研究能够在人工智能治理的问题识别、建立开发实践框架、提供指引等方面发挥重要作用。此外,由于数据可以带来巨大的规模效应,当前“软件即服务”的平台经济模式已非常普及。人工智能和数据需求可能带来“伪”市场集中,因此,未来对“机器换人”的预测非常具有挑战性,需要重新关注和思考人工智能如何用于应对老龄化等公共管理问题,使基于人工智能的公共服务变得更加高效。

  国际人工智能协会前主席、清华大学人工智能国际治理研究院学术委员约兰达·吉尔(Yolanda Gil)指出,由于人类对智能机制认知不足、智能行为本身的复杂性、观测手段的有限性以及个体知识、职业、信仰、文化背景等的差异性,导致当前人工智能研究中面临着一系列挑战,因此,需要加强人工智能基础研究工作,这需要跨领域、跨学科的共同努力。当前,理解人工智能机理和构建人工智能世界模型是人工智能研究面临的两大挑战。一方面,理解人工智能机理需要构架“感知-思考-行动”的智能模型,加强对大脑思维机理的理解,建议借鉴神经科学研究联合体的有益经验,建立全球性的人工智能研究数据库,形成全球共享的研究社区。另一方面,构建人工智能世界模型则需要建立在人类经验、社会习俗、专业技能的基础上,建议建立类似于自由协作式的知识库,通过全民民众参与,推动知识在全球层面共享。

  中国科学院院士、清华大学人工智能研究院名誉院长、清华大学人工智能国际治理研究院学术委员张钹表示,由于深度学习等算法存在不可解释性,导致前两代人工智能算法存在着公平性、安全性问题和不可靠、不可信等缺陷。发展第三代人工智能关键在于发展可解释的、鲁棒的人工智能理论和方法,开发安全、可信、可靠、可扩展的人工智能技术,以“数据驱动+知识驱动”构建支持可解释的人工智能算法的深度学习平台,赋能人工智能安全与防御优化。从数据中真正获取智能要靠知识的帮助与引导,并需要政策法规对数据使用的正确规范,充分利用知识、数据、算法和算力四个要素结合,推动人工智能的创新发展。

  中国工程院院士、北京大学信息科学技术学院院长、鹏城实验室主任、清华大学人工智能国际治理研究院学术委员高文认为,当前人工智能发展处于新一代人工智能向强人工智能发展的关键阶段,至2030年,中国人工智能发展总体要达到世界领先水平。从战略问题看,中美欧三方在人工智能人才、研究、开发、应用、硬件、数据等方面竞争激烈,当前中国人工智能发展在战略政策、数据资源、应用场景、潜力人才方面具有优势,而在基础理论、原创算法、关键部件、国际平台、高级人才等方面还存在短板。从战术问题看,人工智能2.0需采用基于大数据的统计AI解决大规模AI应用需求,鼓励各种可能的强人工智能探索,“可解释机器学习+推理”和“仿生系统+AI大算力”是可能的技术路线图;在安全问题层面,强人工智能的安全风险主要来源于模型的不可解释性、算法和硬件的不可靠性和自主意识的不可控性,人工智能2.0应采用DPI与“防水堡技术”解决数据安全与隐私保护,重视探索人工智能伦理问题,并基于“理论-技术研究-应用”的阶段性采取不同的风险防范策略。

  美国国家工程院外籍院士、英国皇家工程院外籍院士、清华大学高等研究院双聘教授沈向洋表示,AI已经应用于生活和工作的方方面面,目前甚至在法律上也具有一定的应用,比如美国已经有很多法庭用机器学习和人工智能方法帮助判刑,包括决定刑期这样非常重要的问题。但是我们还无法理解一些AI决策的缘由。未来发展过程中我们不能只看见AI决策的“黑箱”,应该打开“黑箱”,探究和理解其中的具体内容和因果关系,我们一定要做可解释性的AI。同时,他提到负责任的AI应具备公平性、可靠性、隐私性、包容性、透明性和责任性的特点,作为新兴领域,还需要向其他领域学习,从而更好的服务于人类。

  中国工程院外籍院士、清华大学智能产业研究院院长、人工智能国际治理研究院学术委员张亚勤指出,“碳中和”是人类能源结构的又一次变革。“碳中和”既是可持续发展的必然选择,又是产业结构调整和发展的重大机遇。企业在“碳中和”背景下都面临转型增效的压力。人工智能+物联网是智联网,智联网可以赋能绿色计算,助力“碳中和”。智联网助力“碳中和”主要包括三个环节:首先,由数据驱动和人工智能优化引擎来实现智能决策。其次,多参数全链系统配置优化。最后,通过多源多维异构感知融合实现智能感知。智联网可用于能源融合、降低ICT产业的碳排放和推动新兴产业发展等。他还介绍了智联网赋能的绿色计算平台的框架,该平台包括人工智能驱动节能减排和高能效人工智能系统,应用路径包括绿色园区和工业节能。

  2021人工智能合作与治理国际论坛由清华大学主办,清华大学人工智能国际治理研究院承办,国际支持机构为联合国开发计划署。论坛为期两天,设有三场主论坛、一场特别论坛和七场专题论坛。“人工智能技术前沿与治理”主论坛由清华大学计算机科学与技术系教授、人工智能研究院常务副院长孙茂松主持。(完)

中国网客户端

国家重点新闻网站,9语种权威发布

大发注册地图