谷歌研究人员创建AI可映射大脑神经元 精度远高于之前的模型
映射神经系统中的生物网络结构 —— 一个称为连接组学(Connectomics)的研究领域 —— 是计算密集型的。人脑包含大约860亿个神经元,通过100万亿个突触连接在一起,对单个立方毫米的组织进行成像可以产生超过1,000TB的数据。
幸运的是,人工智能可以提供帮助。
在一篇发表在《自然方法》杂志上的论文“高精度自动重建神经元与漫溢填充网络”,谷歌和马克斯-普朗克神经生物学研究所的科学家展示了一种递归神经网络,这是一种机器学习算法,常用于手写和语音识别,为连接组学分析量身定制。
谷歌的研究人员不是第一个将机器学习应用于连接组学的人,3月份,英特尔与麻省理工学院的计算机科学和人工智能实验室合作开发了“下一代”脑图像处理管道。但是谷歌研究人员声称他们的模型比以前的深度学习技术提高了“一个数量级”的准确性。
研究人员采用边缘检测器算法识别神经突的边界(神经元体的向外生长),以及循环卷积神经网络 —— 递归神经网络的子类别 —— 将扫描中的像素组合在一起并突出显示神经元。
为了确保跟踪的准确性,该团队开发了“预期运行长度”(ERL),这是一个度量值,给定一个随机点,在大脑的3D图像中随机抽取一个神经元,测量出该算法在出错前能追踪神经元的距离。研究团队报告说,在对100万立方微米斑胸草雀进行脑部扫描时,该模型的表现比以前的算法“好得多”。
重构斑胸草雀大脑中的一部分。不同颜色表示不同区域,都是使用漫溢填充网络自动生成的。金球代表使用以前的方法自动识别的突触位置。
图片来源:Nature
“通过将这些自动化结果与修复剩余错误所需的少量额外人力相结合,马克斯-普朗克研究所的[研究人员]现在能够研究鸣禽的连接组,以获得斑胸草雀如何唱歌以及有关它们学习唱歌的测试理论的新见解。”Viren Jain和Michal Januszewski,谷歌研究人员和论文的主要作者,在一篇博客文章中写道。
漫溢填充网络的三维图像分割
在大规模电子显微镜数据中追踪神经突是图像分割问题的一个例子。传统算法将过程分为至少两个步骤:使用边缘检测器或机器学习分类器找出神经突之间的边界,然后使用分水岭或图形切割等算法将未被边界分隔的图像像素分组在一起。 2015年,我们开始尝试基于递归神经网络的替代方法,将这两个步骤统一起来。该算法在特定的像素位置播种,然后使用循环卷积神经网络迭代地“填充”一个区域,该网络预测哪些像素是与种子相同的对象的一部分。自2015年以来,我们一直致力于将这种新方法应用于大规模的连接组数据集,并严格量化其准确性。
图片来源:Nature
通过预期运行长度测量精度
我们与马克斯-普朗克研究所的合作伙伴合作,设计了一个度量标准,我们称之为“预期运行长度”(ERL),用于测量以下内容:给定脑部三维图像中随机神经元内的随机点,我们可以追踪神经元犯某种错误多远?这是一个平均故障间隔时间度量的示例,除了在这种情况下,我们测量故障之间的空间量,而不是时间量。对于工程师来说,ERL的吸引力在于它将线性物理路径长度与算法产生的各个错误的频率联系起来,并且可以直接计算。对于生物学家来说,吸引力是ERL的特定数值可以与生物学相关的量相关,例如神经系统不同部分中神经元的平均路径长度。
除了论文之外,研究团队还在Github上发布了模型的TensorFlow代码,以及用于可视化数据集和改进重建结果的WebGL 3D软件。他们计划在未来完善该系统,目的是使突触解决过程完全自动化,并“为马克斯-普朗克研究所和其他地方的项目做出贡献。”
广告、内容合作请点这里:寻求合作
咨询·服务