医院儿童眼病中心。院方供给
中新网广州10月22日电 (蔡敏婕)中山大学中山眼科中心22日称,该中心医师团队发现正常和视觉损害婴幼儿存在行为形式差异,并使用深度学习技能,树立根据行为形式的婴幼儿智能视功用评价体系,用于客观筛查婴幼儿的视功用,及时发现言语前婴幼儿的视觉损害。
上述研讨成果于2019年10月21日发表于《天然》杂志的子刊《天然生物医学工程》。
中山大学中山眼科中心人工智能学科带头人林浩添介绍,因为难以客观评价婴幼儿视功用,全球2000万以上的视觉损害婴幼儿因不能被及时发现而毕生致盲。
视觉是人类最重要的感觉,既往研讨标明,视觉和行为表型之间存在必定的对应联系。但是,视力损失怎么影响个别行为形式改变,在很大程度上仍然是不知道的。
本研讨经过剖析4196例婴幼儿的行为学表型视频大数据,定量比照不同视功用集体4大类、13个行为特征的发作频率及严峻程度,初次清晰了斜视、眼球震颤、频频眨眼等标志性的医学行为体征,与婴幼儿视觉损害的量化联系。
该算法从上述原始视频序列中提取短片段,再从采样片段的集合信息中,完结视频水平的猜测和揣度。
林浩添称,研讨结果标明,经过行为形式的视频记载来评价婴幼儿的视觉功用,智能评价体系在检测轻度和重度视觉损害以及病因确诊方面都有令人满意的体现。
与传统的检测办法比较,该体系对技能支持和婴儿协作的需求较少,可行性和准确性都更高。此外,该体系可作为视觉发育临床研讨的技能支持,关于进一步探求和清晰婴幼儿的视觉发育规则具有必定含义。(完)