< Previous | Contents | Next >
3D Camera Tracking
This chapter presents an overview of using the Camera Tracker node and the workflow it involves. Camera tracking is used to create a virtual camera in Fusion’s 3D environment based on the movement or a live-action camera in a clip. You can then use the virtual camera to composite 3D models, text, or 2D images into a live-action clip that has a moving camera.
For more information on other types of tracking in Fusion, see Chapter 82, “Using the Tracker Node,” in the DaVinci Resolve Reference Manual or Chapter 20 in the Fusion Reference Manual.
Contents
Introduction to Tracking ������������������������������ 1759 What Is 3D Camera Tracking? �������������������� 1759 How Camera Tracking Works ����������������������� 1760 The Camera Tracking Workflow ������������������ 1760
for Camera Tracking ���������������������������������������� 1761 Outputting from the Camera Tracker ���� 1762 2D View ����������������������������������������������������������������� 1762
3D View ����������������������������������������������������������������� 1762
Auto-Tracking in the Camera Tracker����� 1764
Tracking Points��������������������������������������������������� 1764
Masking Out Objects ��������������������������������������� 1765
Matching the Live-Action Camera ����������� 1767 Running the Solver������������������������������������������ 1768 How Do You Know When to Stop?��������������� 1768 Using Seed Frames ������������������������������������������� 1769 Cleaning Up Camera Solves �������������������������� 1770 Exporting a 3D Scene for Efficiency �������� 1773 Unalign the 3D Scene Transforms �������������� 1773 Setting the Ground Plane ������������������������������ 1773 Setting the Origin ��������������������������������������������� 1774
Setting the Scale������������������������������������������������ 1775
Realign the Scene���������������������������������������������� 1775
Viewing the Exported Results ���������������������� 1775