韦伯首批照片引发论文竞速大战:晚13秒即错失首发,科研党纷纷肝得起飞

本文主要是介绍韦伯首批照片引发论文竞速大战:晚13秒即错失首发,科研党纷纷肝得起飞,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

明敏 发自 凹非寺
量子位 | 公众号 QbitAI

在韦伯望远镜传回首批照片仅仅过去两周之后,天文学的新成果真是扎了堆了。

这一边,人类已知宇宙最古老星系纪录被打破。

韦伯望远镜观测到了一个距地球135亿光年的星系GLASS-z13,比之前哈勃望远镜看到的GN-z11,还要远1亿光年

d5da8dfea73e9d8b7243135e4448c30b.jpeg

另一边,太阳系外一颗距离地球1150光年的行星上被发现有明显的水特征及云雾

还有团队仅仅从韦伯传回的第一张照片里,就新发现了16个星系。

其中一个可以追溯到宇宙大爆炸后7亿年。

当然还包括太阳系内,韦伯只是“瞥”了一眼木星(曝光仅75秒),就观测到木卫一与木星相互作用下产生的大气现象。

13479983c16a43af487be104c88f6393.jpeg

在这个7月,韦伯望远镜让全球天文学家真是像过年一样喜庆啊。

有学者直言:

几乎韦伯传回的每一张照片,都值得我们仔细研究!

实际上,大家已经在加速“肝”成果了。

在韦伯传回第一批照片的3天后,有两个团队发表了相关分析论文,发表时间仅仅相隔了13秒

0182c0c397ff2fe5fe1cedfec8ef36c7.png
0bf49bc1069f06719f2ba0f01de197a9.png

一旁“看热闹”的网友表示:

毫无疑问,韦伯望远镜会是研究人员的大宝库。

a83a2ade10d751596bc6433367166b8a.png

带来了哪些新发现?

首先最值得关注的,莫过于人类已知宇宙最古老星系纪录被刷新。

有两个研究团队都发现了它的存在。

在传回数据中,研究人员最先锁定了两个极其遥远的星系。

其中一个,可以发出来自宇宙大爆炸4亿年后的光,这一纪录与哈勃望远镜此前观测到的最古老星系持平。

另一个就是GLASS-z13了,它被认为在宇宙大爆炸3亿年后出现。

这两个星系实际上都非常小,大约只有银河系的100分之一。

但它们之中的恒星生成速度却异常快,已经形成了是太阳质量10亿倍的恒星。

dc5e110fee996d3fa1761af4595143c0.jpeg

与此同时,Quantamagazine透露,还有另一个团队也发现了非常遥远的星系。

他们的成果主要集中在宇宙大爆炸5亿年后左右的星系,但目前这一结果还没有对外公布。

还有更多星系开始走入天文学家的视野中。

仅在公布的第一张照片里,目前就已经发现了16个星系。

针对其中的一个光斑,学者认为它来自宇宙大爆炸之后7亿年左右。

而通过光谱检测仪,科学家们希望可以检测到这些看到的早期星系中,是否有重元素(除去氢氦以外的所有化学元素),尤其是氧。

要知道,天文界一直在努力寻找没有重元素的星系。

一旦找到这样的星系,将可以成为第一代恒星是由原始氢和氦组成的确凿证据。

7c0dc2ffb15217165feb508a5228a135.jpeg

除此之外,韦伯望远镜由于观测细节更多,为人们研究星系结构,提供了更有影响力的数据。

比如一个距离我们大约2400万光年的星系NGC7496

直到现在,它的恒星形成区都还被黑暗笼罩着。而此前哈勃望远镜无法穿透这些厚厚的尘埃和气体,窥见其背后的样貌。

但是韦伯望远镜可以看到从宇宙尘埃中反射回来的红外光,从而能探测到恒星形成、发生核聚变的时间点。

科学家表示,从韦伯这次传回的数据中,他们非常惊喜地发现NGC7496是一个非常“标准”的星系。

这对于研究普遍的恒星形成过程具有重要意义。

另一边,还有科学家发现,在韦伯望远镜拍下的南环状星云的侧面,藏着一个非常典型的盘状星系。

之前它被误以为是星云本身的一部分。

而这个发现,对于研究银河系中央凸起的结构,具有重要意义。

03b52d1253c7acfa261f278c10863398.png

实际上,天文学家对于韦伯望远镜还寄予了更多希望。

比如认为它应该也能探测到更为遥远的超新星、超大质量黑洞撕裂等现象。

One More Thing

那么,韦伯望远镜这么厉害,哈勃这个“老古董”是不是就完全没用了?

显然不是。

860889f8aa6e6f77e7d64c56ce20633c.png

康奈尔大学天文学家尼古拉斯·李维斯表示:我们仍旧需要哈勃。

实际上,我正在努力给哈勃争取一笔更大的预算。

因为哈勃望远镜可以弥补韦伯的一些不足,比如对于可见光和紫外线波段,韦伯望远镜其实并不擅长。

但这些波长上也还有很多重要信息需要关注。

参考链接:
[1]https://www.quantamagazine.org/two-weeks-in-the-webb-space-telescope-is-reshaping-astronomy-20220725/
[2]https://www.cnet.com/science/space/features/no-nasas-revolutionary-hubble-space-telescope-is-not-done-yet/

这篇关于韦伯首批照片引发论文竞速大战:晚13秒即错失首发,科研党纷纷肝得起飞的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/291167

相关文章

Java进阶13讲__第12讲_1/2

多线程、线程池 1.  线程概念 1.1  什么是线程 1.2  线程的好处 2.   创建线程的三种方式 注意事项 2.1  继承Thread类 2.1.1 认识  2.1.2  编码实现  package cn.hdc.oop10.Thread;import org.slf4j.Logger;import org.slf4j.LoggerFactory

科研绘图系列:R语言扩展物种堆积图(Extended Stacked Barplot)

介绍 R语言的扩展物种堆积图是一种数据可视化工具,它不仅展示了物种的堆积结果,还整合了不同样本分组之间的差异性分析结果。这种图形表示方法能够直观地比较不同物种在各个分组中的显著性差异,为研究者提供了一种有效的数据解读方式。 加载R包 knitr::opts_chunk$set(warning = F, message = F)library(tidyverse)library(phyl

AI hospital 论文Idea

一、Benchmarking Large Language Models on Communicative Medical Coaching: A Dataset and a Novel System论文地址含代码 大多数现有模型和工具主要迎合以患者为中心的服务。这项工作深入探讨了LLMs在提高医疗专业人员的沟通能力。目标是构建一个模拟实践环境,人类医生(即医学学习者)可以在其中与患者代理进行医学

【IPV6从入门到起飞】5-1 IPV6+Home Assistant(搭建基本环境)

【IPV6从入门到起飞】5-1 IPV6+Home Assistant #搭建基本环境 1 背景2 docker下载 hass3 创建容器4 浏览器访问 hass5 手机APP远程访问hass6 更多玩法 1 背景 既然电脑可以IPV6入站,手机流量可以访问IPV6网络的服务,为什么不在电脑搭建Home Assistant(hass),来控制你的设备呢?@智能家居 @万物互联

论文翻译:arxiv-2024 Benchmark Data Contamination of Large Language Models: A Survey

Benchmark Data Contamination of Large Language Models: A Survey https://arxiv.org/abs/2406.04244 大规模语言模型的基准数据污染:一项综述 文章目录 大规模语言模型的基准数据污染:一项综述摘要1 引言 摘要 大规模语言模型(LLMs),如GPT-4、Claude-3和Gemini的快

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

论文翻译:ICLR-2024 PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS

PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS https://openreview.net/forum?id=KS8mIvetg2 验证测试集污染在黑盒语言模型中 文章目录 验证测试集污染在黑盒语言模型中摘要1 引言 摘要 大型语言模型是在大量互联网数据上训练的,这引发了人们的担忧和猜测,即它们可能已

OmniGlue论文详解(特征匹配)

OmniGlue论文详解(特征匹配) 摘要1. 引言2. 相关工作2.1. 广义局部特征匹配2.2. 稀疏可学习匹配2.3. 半稠密可学习匹配2.4. 与其他图像表示匹配 3. OmniGlue3.1. 模型概述3.2. OmniGlue 细节3.2.1. 特征提取3.2.2. 利用DINOv2构建图形。3.2.3. 信息传播与新的指导3.2.4. 匹配层和损失函数3.2.5. 与Super

BERT 论文逐段精读【论文精读】

BERT: 近 3 年 NLP 最火 CV: 大数据集上的训练好的 NN 模型,提升 CV 任务的性能 —— ImageNet 的 CNN 模型 NLP: BERT 简化了 NLP 任务的训练,提升了 NLP 任务的性能 BERT 如何站在巨人的肩膀上的?使用了哪些 NLP 已有的技术和思想?哪些是 BERT 的创新? 1标题 + 作者 BERT: Pre-trainin

[论文笔记]LLM.int8(): 8-bit Matrix Multiplication for Transformers at Scale

引言 今天带来第一篇量化论文LLM.int8(): 8-bit Matrix Multiplication for Transformers at Scale笔记。 为了简单,下文中以翻译的口吻记录,比如替换"作者"为"我们"。 大语言模型已被广泛采用,但推理时需要大量的GPU内存。我们开发了一种Int8矩阵乘法的过程,用于Transformer中的前馈和注意力投影层,这可以将推理所需