Erklärung des Outputs aus der Demo zur Abschätzung von Human Pose
Demo zur Abschätzung der menschlichen Pose ausgeführt mit:
python human_pose_estimation.py -m human-pose-estimation-0004.xml -i -at ae -d CPU -r
Kann die Ausgabe nicht verstehen.
Wenn Sie die Befehlszeilenoption -r verwenden, werden in der Demo rohe Erkennungsergebnisse angezeigt.
Die Ausgabe stellt 17 Schlüsselpunkte für jede Person dar, gefolgt von Zuversicht.
Der Ausdruck der rohen Inferenzergebnisse wird vom folgenden Codeteil in Zeile 160-164 human_pose_estimation_demo.py implementiert:
def print_raw_results(poses, scores):
log.info('Poses:')
for pose, pose_score in zip(poses, scores):
pose_str = ' '.join('({:.2f}, {:.2f}, {:.2f})'.format(p[0], p[1], p[2]) for p in pose)
log.info('{} | {:.2f}'.format(pose_str, pose_score))
Die Rohinferenzergebnisse sind wie folgt formatiert:
- Einzelne Schlüsselpunkte im Array-Format (X-Coordinate, Y-Coordinate, Joint Confidence Score) von Zeile 131-132 hpe_associative_embedding.py:
# 2 is for x, y and 1 is for joint confidence
self.pose = np.zeros((num_joints, 2 + 1 + tag_size), dtype=np.float32)
- Der Endwert des Inferenzergebnisses ist der Durchschnittswert für die Gesamtzahl der Schlüsselpunkte-Konfidenzbewertung von Zeile 334 hpe_associative_embedding.py:
scores = np.asarray([i[:, 2].mean() for i in ans])
Lesen Sie dazu Ausführen von Python-Demo zur Abschätzung von Menschenpose
Einzelheiten zur Decodierung der Modellausgabe für die Version OpenVINO™ 2021.2 finden Sie unter decoder_ae.py .
Weitere Informationen zur Decodierung der Modellausgabe für die Version OpenVINO™ 2021.3 finden Sie in der Modellklasse.
Die Anzahl der gedruckten Roherkennungsergebnisse hängt von der Anzahl der Schlüsselpunkte ab, die vom verwendeten Modell erkannt werden.
- Human-pose-estimation-0001 (18 Schlüsselpunkte)
- Human-pose-estimation-0005 (17 Schlüsselpunkte)
- Human-pose-estimation-0006 (17 Schlüsselpunkte)
- Human-pose-estimation-0007 (17 Schlüsselpunkte)
- higher-hrnet-w32-human-pose-estimation (17 Schlüsselpunkte)