Software Engineering and Applications
Vol. 11  No. 04 ( 2022 ), Article ID: 55134 , 12 pages
10.12677/SEA.2022.114088

基于二维医学影像推算三维人体姿态

胡海1,周平1,王恒1,徐圆圆2*

1贵阳朗玛信息技术股份有限公司,贵州 贵阳

2贵州大学大数据与信息工程学院,贵州 贵阳

收稿日期:2022年7月25日;录用日期:2022年8月15日;发布日期:2022年8月24日

摘要

针对三维人体姿态估计模型复杂,计算量偏大的问题,提出一种基于二维医学影像推算三维人体姿态的方法。在特定姿态下采集人体医学影像并进行二维影像姿态估计,得到人体各个骨骼的医学影像的长度信息。再在人体位置不发生改变的情况下,对任意姿态的人体采集图像并进行二维医学影像的人体姿态估计,得到骨骼在与相机透镜主光轴垂直平面上的投影的影像的近似长度,反推骨骼与该平面的夹角,最后从投影的影像位置反推骨骼的三维空间朝向。最后将得到的各个骨骼的空间朝向组合在一起,便得到了三维人体医学影像。使用此方法只需要对医学图像进行二维人体姿态估计,再加上一些三角函数、反三角函数的计算就可以从二维医学影像去推算三维人体姿态。与ICCV 2019中代表当今最高水平(State of the Art, SOTA)的三维人体姿态模型的方法相比,大大减少了计算量。

关键词

计算机视觉,人体姿态估计,医学影像,理想透镜,高斯成像公式,弥散圆,合焦

Estimation of Three-Dimensional Human Posture Based on Two-Dimensional Medical Images

Hai Hu1, Ping Zhou1, Heng Wang1, Yuanyuan Xu2*

1Longmaster Information & Technology Co., Ltd, Guiyang Guizhou

2College of Big Data and Information Engineering, Guizhou University, Guiyang Guizhou

Received: Jul. 25th, 2022; accepted: Aug. 15th, 2022; published: Aug. 24th, 2022

ABSTRACT

Considering the complexity of 3-D human pose estimation model and the computation of its training and very high inference, the estimation of three-dimensional human posture based on two-dimensional medical images is proposed. By capturing a human’s medical image with a certain pose and doing 2-D human pose estimation on it, the result can be used to get the bones’ medical image length. And then acquiring an image of a human body of an arbitrary posture and estimating the human body posture of a two-dimensional medical image without changing the human body position. As to every bone, an approximate length of the image of the bone’s projection on a plane that is perpendicular to the main axis of the camera lens can be got. Furthermore, with this approximate length of the medical image, the angle between the bone and the plane can be inferred. Finally, the spatial orientation of the bone can be inferred with this angle and that image position. With the orientations of bones of human skeleton, a 3-D human pose can be composed. Using our method, through a 2-D human medical image pose estimation, some trigonometric calculation and some inverse trigonometric calculation, a 3-d human pose estimation can be figured out. Compared with the three-dimensional human posture model in ICCV 2019, which represents the highest state of the art (SOTA), the calculation amount is greatly reduced.

Keywords:Computer Vision, Human Pose Estimation, Medical Imaging, Ideal Lens, Gaussian Thin Lens Formula, Circle of Confusion, In Focus

Copyright © 2022 by author(s) and Hans Publishers Inc.

This work is licensed under the Creative Commons Attribution International License (CC BY 4.0).

http://creativecommons.org/licenses/by/4.0/

1. 引言

近年来,随着人工智能的迅速发展,医学影像识别领域诞生了很多优秀的算法,不断提高着影像识别的水平。而在影像识别领域,人体姿态估计是一个很热门的子领域,各种算法不断提高着人体姿态估计的精度。随着人体姿态估计的发展,姿态估计的精细化程度也从二维提升到了三维,而要进行精确的三维人体姿态估计,一般需要使用人体医学影像的三维信息进行训练,这样的信息包括体素(三维空间中的点,对应于二维空间的像素)、点云或多重二维影像等,这些数据类型的数据量比单张二维影像高出了一个数量级,因此训练和估计的计算量也都比二维影像的姿态估计多出许多 [1] - [14]。为了降低三维人体姿态估计的计算量,使得在一些计算能力有限的设备上也能较快地进行三维人体姿态的估计,甚至实时地对人体姿态视频进行估计,本文提出了一种使用二维人体姿态估计结果推算三维人体姿态的方法。

2. 利用二维人医学影像识别得到人体骨骼像的长度

首先,我们利用特定姿态下人体姿态的估计得到人体在距离相机一定距离时人体各个骨骼的像的长度。当人体正对相机镜头、抬头挺胸、双腿直立、双手自然垂于人体两侧时,可近似看作人体处于一个与相机镜头的主光轴垂直的一个平面内。这时,经相机镜头所成的像也位于一个平面内,也即在相机的成像平面内,见图1

这时成像平面内的人体骨骼的像的长度与人体骨骼的真实长度的比值应等于像距与物距的比值。

Figure 1. Imaging of human body in specific posture

图1. 人体特定姿态成像

3. 通过人体骨骼的像在与主光轴垂直平面上的投影推算人体骨骼的朝向

当同一个人在不改变位置的情况下改变人体姿态。在改变姿态后,我们再通过相机进行拍摄,考虑拍摄是合焦的,由于人体处于相机的景深范围内,我们可以知道各个骨骼经相机的镜头所成的像的准确位置就在相机成像平面的附近 [15] (焦深范围内),一个点光源在相机成像平面上的像可能不是一个点,而是一个“圆”(弥散圆),只是因为这个圆的直径很小,人眼无法分辨其与点的区别,所以看到的像依然是“清晰”的。考虑到相机的入射光线是近轴光线(与相机镜头的主光轴夹角很小),所以经相机镜头折射后的光线也应该与主光轴的夹角也很小(先考虑过光心的光线,该光线与主光轴的夹角很小,而由于此时相机是“合焦”的,所以其他光线在像平面上的入射点应该与过光心的光线的入射点很接近,间隔很小,可以近似看作:过光心的光线的入射点就是光源在像平面上所成的图像)。因而可以近似地认为光线与成像平面垂直,可以把成像平面内所形成的图像近似看作该“空间的像”在成像平面内的投影,见图2

Figure 2. Imaging of human body in any posture

图2. 人体任意姿态成像

可以证明,直线段经理想薄凸透镜所成的实像还是直线段,并且直线段的组合的像等于直线段的像的组合。现在我们把骨骼简化为一个线段,我们来看一下,一个直线段经相机(可以近似看作一种理想薄凸透镜)成像的解析,见图3

设有一个线段AB,A是离透镜光心O较远的一点,AB可以看作其在过A点与主光轴垂直的平面上的一个投影AC与其在过A点与主光轴平行的直线上的投影AD的向量和。由于“向量和的像等于像的向量和”,所以AB的像 A B 应该是AC的像 A C 和AD的像 A D 的向量和。其中 A C 在过点 A 与主光轴垂直的平面内, A D 与AD、主光轴都在一个平面内, A D 可分解为其在过点 A 与主光轴垂直的平面内的投影 A E 和其在过点 A 与主光轴平行的直线上的投影 A F 。现在来看一下 A E 的长度。

Figure 3. Image of bone projection

图3. 骨骼投影的像

A E 其实就是 A 与主光轴的距离与 D 与主光轴的距离之差,也就是点A的“像高”与点D的“像高”之差。设过点A的物距为u,像距为v,透镜的焦距为f,向量AB与AC的夹角为 θ ,向量AB的长为l,则AC的长为 l cos θ ,AD的长为 l sin θ 。由于AD平行于主光轴,所以A和D的“物高”应该是一样的,记为h,则点A的“像高” h A 应满足:

h A h = v u

v u = f u f ,所以:

h A = f u f h

同理,点D的“像高”为: h D = f u l sin θ f h ,所以:

h D h A = f u l sin θ f h f u f h = l sin θ f u f h u l sin θ f

A C 的长度与AC的长度之比应为 v u ,即 f u f ,而AC的长为 l cos θ ,所以 A C 的长度为 l cos θ f u f 。所以当 θ 小于 π 2 时, A E 的长度与 A C 的长度之比为

l sin θ f u f h u l sin θ f l cos θ f u f

即:

tan θ h u l sin θ f

我们考虑先让AB在AB、AC所在的平面绕端点A转至过A点与主光轴垂直的平面内,则此时AB

的像 A B 的长度为 l = l f u f ,如前所述,当人体正对相机镜头、抬头挺胸、双腿直立、双手自然垂于

人体两侧时,可近似看作人体处于一个与相机镜头的主光轴垂直的一个平面内,此时我们可以通过相机所拍的照中对应的骨骼长度即是 A B 的长度 l 。再考虑B沿反方向重新转回原来的位置,此时的 A C 的长度与 l 的比就是 cos θ 。所以只要我们能得到 A C 的长度信息,就能得到 cos θ ,进而通过反余弦函数得到 θ 的值。当得到 θ 以后,先将 A C 在过点 A 与主光轴垂直的平面内,沿点 A 旋转180˚得到 A C ,过点 A 可作一个向量 A H ,其在过点 A 与主光轴垂直的平面内的投影为 A C ,在与主光轴平行的方向上的投影与AD同向,长度为 l sin θ ,则该向量 A H 相对于 A 的朝向与AB相对于A的朝向一致,长度

与AB的长度之比为 f u f 。所以问题的关键在于求出 θ 。我们知道 A C 的长度与 l 的比是 cos θ ,而 l

通过特定姿态的骨骼成像获得,所以只要知道 A C 的长就可以得到 cos θ

下面我们讨论把 A C A E 的向量和当做 A C 来求 θ 以及 A H 的方向,误差在可接受的范围之内(最大相对误差不超过10%)。我们知道在过点 A 与主光轴垂直的平面内, A C A E 的向量和可看作是AB的像 A B 在该平面内的投影,而由于近轴光线可近似看作与主光轴平行,所以 A B 在成像平面上的投影可近似看作AB在成像平面内所拍摄成的图像。因而AB在成像平面内所拍摄成的图像的长可以当作 A B 在过点 A 与主光轴垂直的平面内投影的长(成像平面与过点 A 与主光轴垂直的平面平行,所以 A B 在这两个平面内的投影平行且长度相等)。先考虑 θ = π 2 时。当 θ = π 2 时,AB就是AD,此时因为 A C 长度为0,所以 A C A E 的向量和就是 A E ,其长度为:

l f u f h u l f

用此长度除以 l ( l f uf ),得到的值为 h ulf ,由于h、l、f都远小于u,假设h、l、f都小于 u 30 ,那么这个值小于 1 28 ,用反余弦函数求得的 θ 的计算值 θ ^ 大于 arccos ( 1 28 ) ,即87.953˚,此时求得的 值与

真实值的误差小于3˚。用前述方法作图得到的向量 A H 与理论上的 A H 的偏差(在与主光轴垂直的平面内的向量误差 A E 加上在与主光轴平行方向上的向量误差即是最终的偏差)应小于:

( l sin θ h u l sin θ f ) 2 + ( l sin θ l sin θ ^ ) 2

因为 θ = π 2 ,所以也即:

( l cos θ ^ ) 2 + ( l l sin θ ^ ) 2

也即:

2 l 1 sin θ ^

小于:

2 l 1 sin ( 87.953 ˚ )

约等于 2 0.0006 l l 的比值为: 2 0.0006 0.035 ,可以看到这个相对误差是很小的。

注意到 θ 为0的情况其实已经讨论过了(即是AB在与主光轴垂直的平面内,这种情况 A C 的长度等

l ,用投影长度除以 l π 2 ,结果没有误差)。下面只考虑 θ ( 0 π 2 ) 的情况。

θ ( 0 π 2 ) 时,设 A C A E 的向量和的长度为 p ,设 A C 的长度为p,那么 p 应在区间 [ | p p h tan θ u l sin θ f | , p + p h tan θ u l sin θ f ] 之内。

现在我们把 h u l sin θ f 记为 k ( θ ) 。并记 k 1 = h u l f k 2 = h u f 。因此有 k 2 k ( θ ) k 1 。我们注意到 p 的区间为 [ | p p h tan θ u l sin θ f | , p + p h tan θ u l sin θ f ] ,如果h为0,那么该区间退化为一个值p,以此值求 θ 不存在误差。下面只考虑h不为0的情况。对应的求得的 θ 的余弦值的区间为 [ | p l p l h tan θ u l sin θ f | , p l + p l h tan θ u l sin θ f ] ,把 h u l sin θ f = k ( θ ) 代入,得到:

[ | p l p l tan θ k ( θ ) | , p l + p l tan θ k ( θ ) ]

注意到 p l = cos θ ,所以也就是:

[ | cos θ sin θ k ( θ ) | , cos θ + sin θ k ( θ ) ]

现在我们对 θ 分段来分析,先来看区间上确界 cos θ + sin θ k ( θ )

1. 当 0 < θ arccot ( 1 k 2 2 2 k 2 ) 时: cot θ 1 k 2 2 2 k 2 ,而 1 k 2 2 2 k 2 1 k 2 ( θ ) 2 k ( θ ) ,所以 cot θ 1 k 2 ( θ ) 2 k ( θ ) ,两边同时乘以 2 k ( θ ) sin 2 ( θ ) ,得到:

2 k ( θ ) sin θ cos θ ( 1 k 2 ( θ ) ) sin 2 θ

即:

2 k ( θ ) sin θ cos θ + k 2 ( θ ) sin 2 θ + cos 2 θ 1

也即:

( cos θ + sin θ k ( θ ) ) 2 1

cos θ + sin θ k ( θ ) > 0 ,所以 cos θ + sin θ k ( θ ) 1 ,这时可能超出了余弦值的范围,所以只能取1,通过反余弦函数得到的 θ 的计算值 θ ^ 为0,所以 θ θ ^ 的差值为 θ ,其大小属于 ( 0 , arccot ( 1 k 2 2 2 k 2 ) ] 区间,小于等于 arccot ( 1 k 2 2 2 k 2 ) ,假设h、l、f都小于 u 30 ,则 k 2 < 1 29 1 k 2 2 2 k 2 > 420 29 ,所以

arccot ( 1 k 2 2 2 k 2 ) arccot ( 420 29 ) 3.9499 ˚ ,计算得到的 A H 与真实的 A H 之间的差异(向量差)的长度不超过:

( l sin θ h u l sin θ f ) 2 + ( l sin θ l sin θ ^ ) 2

小于:

l k 1 2 + sin 2 θ

小于:

l ( 1 28 ) 2 + sin 2 ( 3.9499 ˚ ) 0.0776 l

2. 当 arccot ( 1 k 2 2 2 k 2 ) < θ < arccot ( 1 145 k 1 2 2 k 1 ) 时:如果 cos θ + sin θ k ( θ ) 1 ,那么通过反余弦函数得到的 θ 的计算值 θ ^ 为0, θ ^ θ 的差值小于 arccot ( 1 145 k 1 2 2 k 1 ) ,假设h、l、f都小于 u 30 ,则 k 1 < 1 28 1 145 k 1 2 2 k 1 639 56 ,所以

arccot ( 1 145 k 1 2 2 k 1 ) arccot ( 639 56 ) 5.0084 ˚

计算得到的 A H 与真实的 A H 之间的差异(向量差)的长度不超过:

( l sin θ h u l sin θ f ) 2 + ( l sin θ l sin θ ^ ) 2

小于:

l k 1 2 + sin 2 θ

小于:

l ( 1 28 ) 2 + sin 2 ( 5.0084 ˚ ) 0.0943 l

如果 cos θ + sin θ k ( θ ) < 1 ,因为 θ ^ 小于 θ ,所以 θ ^ θ 的差也不会超过 θ ,所以计算得到的 A H 与真实的 A H 之间的差异(向量差)的长度也不会超过 0.0943 l

3. 当 θ arccot ( 1 145 k 1 2 2 k 1 ) 时: cot θ 1 145 k 1 2 2 k 1 ,因此 1 k 1 2 2 k 1 cot θ > 12 k 1 。反余弦函数 arccos ( x ) 的导数是 1 sin ( arccos ( x ) ) ,所以求得的 θ ^ θ 的差值应为 sin θ k ( θ ) sin θ ,其中 θ ^ θ θ ,所以 sin θ k ( θ ) sin θ sin θ k ( θ ) sin θ ^ ,而 cos θ ^ = cos θ + sin θ k ( θ ) ,所以

sin θ k ( θ ) sin θ ^ = sin θ k ( θ ) 1 ( cos θ + sin θ k ( θ ) ) 2

小于:

sin θ k 1 1 ( cos θ + sin θ k 1 ) 2

即:

k 1 1 k 1 2 2 k 1 cot θ

因为 1 k 1 2 2 k 1 cot θ > 12 k 1 ,所以:

k 1 1 k 1 2 2 k 1 cot θ < 1 12 4.7746 ˚

计算得到的 A H 与真实的 A H 之间的差异(向量差)的长度不超过:

( l sin θ h u l sin θ f ) 2 + ( l sin θ l sin θ ^ ) 2

小于:

l k 1 2 + ( θ θ ^ ) 2

小于:

( 1 28 ) 2 + ( 1 12 ) 2 l 0.0907 l

现在再来看区间下确界

| cos θ sin θ k ( θ ) |

我们注意到 cos θ sin θ k ( θ ) θ 的单调递减函数,设某个值 θ 1 使

cos θ 1 sin θ 1 k ( θ 1 ) = 0

4. 当 0 < θ θ 1 时:因为 cos θ 1 sin θ 1 k ( θ 1 ) = 0 ,所以 cot θ 1 = k ( θ 1 ) k 2 ,所以

θ 1 arccot ( k 2 )

另外,此时 cos θ sin θ k ( θ ) 0 | cos θ sin θ k ( θ ) | = cos θ sin θ k ( θ )

arccos ( | cos θ sin θ k ( θ ) | ) = θ ^ ,则 θ ^ = arccos ( | cos θ sin θ k ( θ ) | ) = arccos ( cos θ sin θ k ( θ ) ) = arccos ( cos θ ) ( sin θ k ( θ ) sin θ )

其中, θ 介于 θ ^ θ 之间。

因而有:

θ ^ θ = sin θ k ( θ ) sin θ

sin θ k ( θ ) sin θ sin θ k ( θ ) sin θ = k ( θ ) k 1 k 1 1 28 0.0357 2 .0455 ˚

计算得到的 A H 与真实的 A H 之间的差异(向量差)的长度不超过:

l k 1 2 + ( θ θ ^ ) 2 l ( 1 28 ) 2 + ( 1 28 ) 2 0.0505 l

5. 当 θ > θ 1 时: cos θ sin θ k ( θ ) < 0 | cos θ sin θ k ( θ ) | = cos θ + sin θ k ( θ ) ,设 arccos ( | cos θ sin θ k ( θ ) | ) = θ ^ ,则:

θ ^ = arccos ( | cos θ sin θ k ( θ ) | ) = arccos ( cos θ + sin θ k ( θ ) ) = arccos ( cos θ ) sin θ k ( θ ) sin θ = ( π θ ) sin θ k ( θ ) sin θ

其中 θ 介于 θ ^ π θ 之间,因此

1 sin θ max ( 1 sin ( π θ ) , 1 sin ( arccos ( cos θ + sin θ k ( θ ) ) ) )

所以:

sin θ k ( θ ) sin θ max ( sin θ k ( θ ) sin ( π θ ) , sin θ k ( θ ) sin ( arccos ( cos θ + sin θ k ( θ ) ) ) )

sin θ k ( θ ) sin ( π θ ) = k ( θ )

sin θ k ( θ ) sin ( arccos ( cos θ + sin θ k ( θ ) ) ) = sin θ k ( θ ) 1 ( cos θ + sin θ k ( θ ) ) 2 = sin θ k ( θ ) ( 1 k 2 ( θ ) ) sin 2 θ + 2 sin θ cos θ k ( θ ) sin θ k ( θ ) ( 1 k 2 ( θ ) ) sin 2 θ = k ( θ ) 1 k 2 ( θ )

k ( θ ) < k ( θ ) 1 k 2 ( θ )

所以:

sin θ k ( θ ) sin θ k ( θ ) 1 k 2 ( θ ) k 1 1 k 1 2

而由于 cos θ 1 sin θ 1 k ( θ 1 ) = 0 ,可知 cot θ 1 = k ( θ 1 ) k 1 ,因而

π 2 > θ > θ 1 arccot ( k 1 )

因而

| θ ^ θ | = | π 2 θ sin θ k ( θ ) sin θ | < max ( π 2 θ , sin θ k ( θ ) sin θ ) max ( π 2 arccot ( k 1 ) , k 1 1 k 1 2 )

k 1 1 k 1 2 < 1 28 1 ( 1 28 ) 2 0.0357 2.0455 ˚

π 2 arccot ( k 1 ) < π 2 arccot ( 1 28 ) 0.0714 4.0909 ˚

所以, | θ ^ θ | 4.0909 ˚

计算得到的 A H 与真实的 A H 之间的差异(向量差)的长度不超过:

l k 1 2 + ( θ θ ^ ) 2 l ( 1 28 ) 2 + ( 0.0714 ) 2 0.0798 l

综上所述,用 A E A C 的向量和(即 A B 的像在过点 A 上的投影)代替 A C 来求 θ ,并作 A H 最终得到的骨骼缩小后的位置与真实位置之间的差都在可接受的范围内(最大相对误差不超过10%)。

对于人体所有的关键骨骼都采用此方法计算其朝向,然后把所有骨骼的朝向组合起来便得到了三维人体姿态。

4. 与三维人体姿态模型的计算速度对比

使用谷歌的PoseNet二维人体姿态模型,使用默认参数对480P分辨率的图像,进行人体姿态识别,并使用上述方法(以下简称PoseNet-to-3D)推算人体的三维姿态,在MacBook Pro (13-inch, 2017, Four Thunderbolt 3 Ports)的平台上耗时平均大约为0.083秒。而使用《Learnable Triangulation of Human Pose》 [1] 中所述的方法(以下简称LTH)进行姿态估计,在相同平台下,对480P分辨率的图像进行姿态估计,耗时大约为2.5秒。而使用《Cross View Fusion for 3D Human Pose Estimation》 [2] 中所述的方法(以下简称CVF)进行姿态估计,在相同平台下,对480P分辨率的图像进行姿态估计,耗时大约为2.7秒,见表1

Table 1. Comparison of three-dimensional human posture estimation time

表1. 三维人体姿态估计耗时对比

5. 结语

通过对人体医学影像特定姿态的估计得到了骨骼的像的长度。在位置不变的前提下,任意改变影像姿态,通过骨骼的像在与主光轴垂直的平面上的投影以及像的长度推算骨骼的朝向。通过一些二维和三维空间的几何关系以及对高斯成像公式的使用,巧妙地把医学影像三维姿态估计转换为二维姿态估计加上一些代数运算,大大降低了三维人体影像姿态估计的计算复杂度。

文章引用

胡 海,周 平,王 恒,徐圆圆. 基于二维医学影像推算三维人体姿态
Estimation of Three-Dimensional Human Posture Based on Two-Dimensional Medical Images[J]. 软件工程与应用, 2022, 11(04): 842-853. https://doi.org/10.12677/SEA.2022.114088

参考文献

  1. 1. Iskakov, K., Burkov, E., Lempitsky, V. and Malkov, Y. (2019) Learnable Triangulation of Human Pose. 2019 International Conference on Computer Vision (ICCV), Seoul, 27 October-2 November 2019, 7717-7726. https://doi.org/10.1109/ICCV.2019.00781

  2. 2. Qiu, H.B., Wang, C.Y., Wang, J.D., Wang, N.Y. and Zeng, W.J. (2019) Cross View Fusion for 3D Human Pose Estimation. 2019 International Conference on Computer Vision (ICCV), Seoul, 27 October-2 November 2019, 4341-4350. https://doi.org/10.1109/ICCV.2019.00444

  3. 3. He, Y.H., Yan, R., Fragkiadaki, K. and Yu, S.-I. (2020) Epipolar Transformers. 2020 Conference on Computer Vision and Pattern Recognition (CVPR), Seattle, 13-19 June 2020, 7779-7788.

  4. 4. Huang, F.Y., Zeng, A.L., Liu, M.H., Lai, Q.X. and Xu, Q. (2021) DeepFuse: An IMU-Aware Network for Real-Time 3D Human Pose Estimation from Multi-View Image. 2020 IEEE Winter Conference on Applications of Computer Vision (WACV), Snowmass, 1-5 March 2020, 418-427. https://arxiv.org/pdf/1912.04071v1.pdfhttps://doi.org/10.1109/WACV45572.2020.9093526

  5. 5. Liang, J.B. and Lin, M.C. (2019) Shape-Aware Human Pose and Shape Reconstruction Using Multi-View Images. 2019 International Conference on Computer Vision (ICCV), Seoul, 27 October-2 November 2019, 4351-4361. https://doi.org/10.1109/ICCV.2019.00445

  6. 6. Martinez, J., Hossain, R., Romero, J. and Little, J.J. (2017) A Simple Yet Effective Baseline for 3d Human Pose Estimation. 2017 International Conference on Computer Vision (ICCV), Venice, 22-29 October 2017, 2659-2668. https://doi.org/10.1109/ICCV.2017.288

  7. 7. Tu, H.Y., Wang, C.Y. and Zeng, W.-J. (2020) VoxelPose: Towards Multi-Camera 3D Human Pose Estimation in Wild Environment. 2020 European Conference on Computer Vision (ECCV), Glasgow, 23-28 August 2020, 1-17.

  8. 8. Dong, J.T., Jiang, W., Huang, Q.-X., Bao, H.J. and Zhou, X.W. (2019) Fast and Robust Multi-Person 3D Pose Estimation from Multiple Views. 2019 Conference on Computer Vision and Pattern Recognition (CVPR), Long Beach, 15-20 June 2019, 7784-7793. https://doi.org/10.1109/CVPR.2019.00798

  9. 9. Belagiannis, V., Amin, S., Andriluka, M., Schiele, B., Navab, N. and Ilic, S. (2014) 3D Pictorial Structures for Multiple Human Pose Estimation. 2014 Conference on Computer Vision and Pattern Recognition (CVPR), Columbus, 23-28 June 2014, 1669-1676. https://doi.org/10.1109/CVPR.2014.216

  10. 10. Ershadi-Nasab, S., Noury, E., Kasaei, S. and Sanaei, E. (2018) Multiple Human 3D Pose Estimation from Multiview Images. Multimedia Tools and Applications, 77, 15573-15601. https://link.springer.com/article/10.1007/s11042-017-5133-8

  11. 11. Belagiannis, V., Amin, S., Andriluka, M., Schiele, B., Navab, N. and Ilic, S. (2021) 3D Pictorial Structures Revisited: Multiple Human Pose Estimation. IEEE Transactions on Pattern Analysis and Machine Intelligence, 38, 1929-1942. http://campar.in.tum.de/pub/belagiannis2016pami/belagiannis2016pami.pdf

  12. 12. Belagiannis, V., Wang, X.C., Schiele, B., Fua, P., Ilic, S. and Navab, N. (2021) Multiple Human Pose Estimation with Temporally Consistent 3D Pictorial Structures. Computer Vision—ECCV 2014 Workshops, Zurich, 6-7, 12 September 2014, 742-754. http://campar.in.tum.de/pub/belagiannis2014eccvChalearn/belagiannis2014eccvChalearn.pdf

  13. 13. Veges, M. and Lorincz, A. (2021) Temporal Smoothing for 3D Human Pose Estimation and Localization for Occluded People. Neural Information Processing 27th International Conference, ICONIP 2020, Bangkok, 23-27 November 2020, 557-568. https://arxiv.org/pdf/2011.00250v1.pdf

  14. 14. Mehta, D., Sotnychenko, O., Mueller, F., Xu, W.P., Elgharib, M., Fua, P., Seidel, H.-P., Rhodin, H., Pons-Moll, G. and Theobalt, C. (2021) XNect: Real-Time Multi-Person 3D Motion Capture with a Single RGB Camera. https://arxiv.org/pdf/1907.00837v2.pdf

  15. 15. 王清英. 景深公式的推导[J]. 南阳师范学院报, 2003, 2(3): 24-26.

  16. NOTES

    *通讯作者。

期刊菜单