かみのメモ

コンピュータビジョン・プログラムな話題中心の勉強メモ(記事一覧は https://kamino.hatenablog.com/archive へ)

OpenCV calibrateCamera関数のプロになる

誇大タイトルです笑。 2019年最初の記事ということで気合い入れたら結構長くなってしまいました。

この記事ではカメラのキャリブレーションでよく使われる、OpenCVcalibrateCamera関数の原理や実用上のコツを解説します。

「とりあえず関数は呼べたけど結果が合っているのかイマイチわからない」「全く見当違いな値が出てきた」というときの参考になればと思います。

もくじ

0. キャリブレーションアプリの例

※ 2019/06/01 追記

チェッカーボード/ドットグリッドを使ったカメラキャリブレーションのためのアプリを書いてみました。 カメラ画像とグリッド検出結果を確認しながらインタラクティブに操作できるようになっています。 言語はPythonです。

カメラアクセスにはOpenCVVideoCaptureを利用しているので、これに非対応のカメラを使う場合はカメラ画像取得部分の書き直しが必要です。

github.com

1. cv::calibrateCamera関数とは

calibrateCamera関数はその名の通りカメラのキャリブレーション(較正)を行うための関数です。

カメラ画像から物体の位置や姿勢を認識するタスクは、古くからコンピュータビジョンの分野で研究されている話題です。 カメラは三次元の情報を二次元の画像に写し込むので奥行方向の情報は欠けてしまうのですが、左右上下のどの方向に物体があるのかという情報は画像から読み取ることができます。 この情報をうまく活用してやることで、自動運転のための物体認識やAR/MRで使うリアルタイムなCG合成など、様々なアプリケーションが実現できます。

こうした物体の位置検出をするためには「カメラから見てこの方向にある物体はカメラ画像上のここに映り込む」という対応関係を事前に知っておく必要があります。 calibrateCamera関数はこの対応関係を較正するために利用されます。

2. OpenCVのカメラモデル

カメラを較正するための準備として、まず物体がカメラに映り込む様子を数式にモデル化する必要があります。 このモデルはカメラモデルと呼ばれます。

2.1. 定義

OpenCVでは、次のようなカメラモデルを採用しています(執筆時のバージョンは4.1.0)。

  1. カメラをピンホールカメラとして考える
  2. カメラの光学中心(ピンホールカメラの穴の位置・画角の基点)を原点とし、右をX、下をY、前をZとする右手座標系を考える
  3. カメラ座標系で見て {(x,y,z)} にあるオブジェクトは、以下の式で求められる画素 {(u,v)} に映り込むものとする

$$\begin{eqnarray}x' &=& x/z \\ y'&=&y/z \\ r ^ 2 &=& x' ^ 2 + y' ^ 2 \\ x''&=&x'\frac{1+k _ 1 r ^ 2 + k _ 2 r ^ 4 + k _ 3 r ^ 6}{1+k _ 4 r ^ 2 + k _ 5 r ^ 4 + k _ 6 r ^ 6} + 2p _ 1 x'y'+ p _ 2 (r ^ 2 + 2x' ^ 2) + s _ 1 r ^ 2 + s _ 2 r ^ 4 \\ y''&=&y'\frac{1+k _ 1 r ^ 2 + k _ 2 r ^ 4 + k _ 3 r ^ 6}{1+k _ 4 r ^ 2 + k _ 5 r ^ 4 + k _ 6 r ^ 6} + p _ 1 (r ^ 2 + 2y' ^ 2) + 2p _ 2 x'y' + s _ 3 r ^ 2 + s _ 4 r ^ 4 \\ u &=& f _ x x'' + c _ x \\ v &=& f _ y y'' + c _ y \end{eqnarray}$$

f:id:kamino-dev:20190123220102p:plain
ピンホールカメラモデル(OpenCV公式ドキュメントから引用)

式の詳細は次の節で説明するとして、まずは各パラメータの呼び名を確認します。

{f _ x, f _ y, c _ x, c _ y, k _ 1 ,\cdots, k _ 6, p _ 1, p _ 2, s _ 1 ,\cdots, s _ 4} はカメラの内部パラメータ(intrinsic parameters)と呼ばれます。 特に {k _ 1 ,\cdots, k _ 6, p _ 1, p _ 2, s _ 1 ,\cdots, s _ 4}歪みパラメータdistortion parameters)と呼ばれます。 また伝統的に

$$\begin{bmatrix} f _ x & 0 & c _ x \\ 0 & f _ y & c _ y \\ 0 & 0 & 1\end{bmatrix}$$

をカメラ行列(camera matrix)と呼びます(歪みを考慮しない場合の計算式を整理するとこの行列が出てくるため)。 上のモデルで計算する場合、実際にこの行列を使うことはないですが、呼び方として覚えておきましょう。

補足

魚眼レンズと呼ばれる広角レンズを搭載したカメラの場合、上のモデルでは画像の輪郭に近い部分の歪みは正確に表現できません。 広角カメラを使う場合はcv::fisheyeという別のモジュールが用意されているのでそちらを利用するほうがよいです。

また上の図で {z=1} と定義していた画像平面をあえて傾かせるティルト機能付きカメラというものも存在します。 詳細は「シャインプルーフの原理」などで検索してみてください。 calibrateCamera関数はこうしたティルト機能付きカメラのキャリブレーションにも対応しており、ティルトの影響を歪みパラメータ {\tau _ x , \tau _ y} として算出できます。 ただ、このあたりの式を書くと紙面が長くなるので今回は省略します。

2.2. 解説

それでは、先ほどのカメラモデルの式を順に紐解いていきましょう。

透視投影変換

まず、ピンホールカメラモデルに従って透視投影(perspective projection)という遠近法を考慮した変換を行います。 これを簡単に可視化したものが先ほどの図です。

{z=1} の位置に画像平面があると仮定します。 すると、オブジェクトがある点 {(x,y,z)} とカメラ原点を結んだときに交差する点 {(x',y', 1)=(x/z, y/z, 1)} にオブジェクトが写り込む、という風に考えることができます。

この考え方に従って、三次元のオブジェクトを二次元の画像平面に写し込んでいるのが最初の2つの式です。

$$\begin{eqnarray}x' &=& x/z \\ y'&=&y/z\end{eqnarray}$$

OpenGLの透視投影ではオクルージョンを考慮するために2×2×2の正規座標系に変換しますが、ここでは奥行き情報を捨ててしまって構わないのでシンプルな変換式となります。

ビューポート変換

次に、{z=1} の画像平面上の二次元座標 {(x',y')} と画像に切り出したときのピクセル座標 {(u,v)} の対応関係を考えます。 平たく言えば二次元平面の座標値をピクセル値に直す処理をするのです。

これは二次元から二次元への射影なので、Y軸が同じ方向を向いていると考えれば

$$\begin{bmatrix}u\\v\end{bmatrix}=\begin{bmatrix}f _ x & \gamma \\ 0 & f _ y\end{bmatrix} \begin{bmatrix}x'\\y'\end{bmatrix} + \begin{bmatrix}c _ x\\c _ y\end{bmatrix}$$

という風に定式化できます。 実際の画像に写り込むのは、変換後の {u, v} が0〜画像の幅・高さの範囲に収まる領域です。

ここで出てきた {\gamma}スキュー(skew)と呼ばれるパラメータです。 この値が大きくなることは「四角形を撮影したとき平行四辺形に歪んだものが撮影される」という状態を意味するのですが、最近のカメラ素子はこの種の歪みをほとんど生じないためOpenCVでは無視されています。

{f _ x, f _ y} はカメラの画角と画像の解像度(サイズ)を反映したパラメータで、焦点距離と呼ばれます。 数式的には

f_x(pix) = レンズの焦点距離(m) × 画像の幅(pix) / 撮像素子の幅(m)
f_y(pix) = レンズの焦点距離(m) × 画像の高さ(pix) / 撮像素子の高さ(m)

で表され、単位はピクセルです。 なぜこのパラメータを焦点距離と呼ぶのかについては以前の記事で解説しているので興味があれば読んでみてください。

kamino.hatenablog.com

{c _ x , c _ y}カメラの光軸を通ってきた光が写り込むピクセルの座標です。 おおよそ画像の中心あたりの座標になります。

以上をまとめたのが最後の2つの式です。

$$\begin{eqnarray}u &=& f _ x x'' + c _ x \\ v &=& f _ y y'' + c _ y \end{eqnarray}$$

各種画像歪みの考慮

さて、ここまでの式で理想的なピンホールカメラをモデル化することはできたのですが、現実のカメラはレンズ収差や組み付け精度が原因で画像に歪みdistortion)が生じます。 この歪みを考慮するため、画像平面上で理想的な座標 {(x',y')} から歪んだ座標 {(x'', y'')} への射影を考えます。

OpenCVではこの射影を以下の式でモデル化します。

$$\begin{eqnarray}r ^ 2 &=& x' ^ 2 + y' ^ 2 \\ x''&=&x'\frac{1+k _ 1 r ^ 2 + k _ 2 r ^ 4 + k _ 3 r ^ 6}{1+k _ 4 r ^ 2 + k _ 5 r ^ 4 + k _ 6 r ^ 6} + 2p _ 1 x'y'+ p _ 2 (r ^ 2 + 2x' ^ 2) + s _ 1 r ^ 2 + s _ 2 r ^ 4 \\ y''&=&y'\frac{1+k _ 1 r ^ 2 + k _ 2 r ^ 4 + k _ 3 r ^ 6}{1+k _ 4 r ^ 2 + k _ 5 r ^ 4 + k _ 6 r ^ 6} + p _ 1 (r ^ 2 + 2y' ^ 2) + 2p _ 2 x'y' + s _ 3 r ^ 2 + s _ 4 r ^ 4\end{eqnarray}$$

式を見ての通り、歪みパラメータが全て0のときが歪みなし、絶対値が大きくなるほど歪みが大きくなるようなモデルです。

第一項は放射状歪み(radial distortion)、第二項・第三項は接線歪み(tangential distortion)、第四項・第五項は薄プリズム歪み(thin prism distortion)と呼ばれます。

ちょっと自信のない情報ですが、放射状歪みはレンズの特性上必ず生じるほか、組み付け精度にも影響を受けるらしいです。 接線歪みと薄プリズム歪みは、どちらもレンズと撮像素子が完全に並行でなかったり、光軸がズレていたりといった組み付け誤差が原因で生じる歪みだそうです。

試しに歪みパラメータを可視化するツールを作ってみたので、こちらで歪みのイメージを掴んでもらえればと思います。

Camera Distortion Simulator

以上を全てまとめると先ほどのカメラモデルの式となります。

3. calibrateCamera関数の内部実装

3.1. 問題の定式化

カメラをどのようにモデル化するのかが決まったので、次はカメラパラメータをどのように求めていくかを考えます。

OpenCVでは以下のZhangの手法を拡張したものが実装されています。

  • Zhengyou Zhang. A flexible new technique for camera calibration. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 22(11):1330–1334, 2000.
    • 被引用数が5桁を数える大ヒット論文です
    • 実は上で紹介した放射状歪みのモデル化もこの論文で提案されたものです

Zhangの手法の基本的な考え方は、回帰などで利用する最小二乗法による関数フィッティングと同じです。 すなわち、三次元座標 {\mathbf{x} = (x,y,z)}ピクセル座標 {\mathbf{m} = (u,v)} のペアをたくさん集めて、「{\mathbf{x} = (x,y,z)} から計算されるピクセル座標」と「実際に計測されたピクセル座標 {\mathbf{m} = (u,v)}」の誤差(再投影誤差)がなるべく小さくなるようなパラメータを探します。

ちなみにこうした再投影誤差の最小化によって知りたいパラメータを求める手法はBundle Adjustmentと呼ばれており、コンピュータビジョンの分野ではメジャーな計算手法の1つとなっています。

カメラモデルに従ってピクセル座標を計算する関数を {f} 、カメラパラメータをまとめて {\mathbf{p}} として、数式で表すと以下のようになります。

$$\bar{\mathbf{p}} = \mathrm{argmin} _ {\ \mathbf{p}} \sum ^ n _ {i=1} \|f(\mathbf{p}, \mathbf{x} _ i) - \mathbf{m} _ i\|$$

つまり座標 {\mathbf{x} _ i} が既知であるマーカーを複数用意し、カメラで撮影したときのピクセル座標 {\mathbf{m} _ i} を計算し、この最適化問題を解くことでカメラパラメータを求めることができます。

しかしここで問題になるのはどうやってカメラ座標系における三次元座標 {\mathbf{x} _ i} を計算するかという点です。 いちいちカメラからの距離を定規で測っていては手間がかかりますし誤差も大きくなります。

そこでZhangの方法では、相対座標(モデル座標)が既知であるマーカー群を用意しそれをカメラの前で姿勢を変えながら何度か撮影するという手法を取ります。 そして、最適化問題で求めるべきパラメータの中に「各フレームにおけるモデル座標とカメラ座標系の幾何関係(外部パラメータ : extrinsic parameters)」を加えてしまいます。 モデル座標系におけるマーカー座標を {x _ i}{j} 番目のフレームにおけるモデル座標系とカメラ座標系の間の回転・並進成分を {\mathbf{R} _ j, \mathbf{t} _ j} として、数式で表すと以下のようになります。

$$\bar{\mathbf{p}}, \mathbf{R} _ 0, \mathbf{t} _ 0, \mathbf{R} _ 1 \cdots = \mathrm{argmin} \sum ^ N _ {j=1} \sum ^ {n _ j} _ {i=1} \|f(\mathbf{p}, \mathbf{R} _ j, \mathbf{t} _ j, \mathbf{X} _ i) - \mathbf{m} _ {j, i}\|$$

1フレーム増やすごとにパラメータが6個(回転の3自由度と並進の3自由度)増えてしまいますが、マーカー1つのデータにつき2自由度の制約を加えられるので、各フレームで最低でも4つのマーカーを検出できればこの最適化問題を解くことができます。

カメラキャリブレーションでよく使うチェッカーボードは「モデル座標におけるマーカー座標が既知なオブジェクト」の代表例です。 必ずしもチェッカーボードである必要はなく、ドットパターンやグレイコードパターンを利用してもよいです。

また原理上、マーカーの数が多ければ1回だけの撮影で内部パラメータを求めることも可能です(精度は悪化しやすいですが…)。

3.2. 問題の解法

次に、先ほど導出した最適化問題をどのように解くのかを考えます。

上の式は非線形最適化問題となるので、一発で解を求める有効な方法は知られていません。 そこで、初期解を徐々にそれらしい解に近付けていく反復解法を利用します。 二乗和の最小化(Least-Squares Problems)はよく利用される最適化問題で、過去に効率的なアルゴリズムが提案されています。 OpenCVではその一つであるLevenberg-Marquardt(レーベンバーグ・マーカート or マルカート 法:LM法)を利用しています。

ただしLM法は非常に有効な手法なのですが、一般に数値計算の反復解法は局所最適解のみを探索するので正しくないパラメータに収束することがあります。 正しいパラメータに収束させるためにはそれなりに正解に近い初期解を与えてやる必要があります。

calibrateCamera関数の内部でも、最初に初期解を推定してからLM法を解いています。 内部パラメータの初期解はモデル座標から画素平面へのホモグラフィーを考えることで計算しています。 ただし、ホモグラフィーを計算するためにはチェッカーボードのようにマーカーが平面上に配置されていることが条件になります。 非平面に配置されたマーカーを使うときはこの方法が使えないので、calibrateCamera関数を呼ぶ際に内部パラメータの初期解を与える必要があります。 外部パラメータの初期解はいったん内部パラメータを初期解で固定した上でLM法を解いて求めています。

4. calibrateCamera関数の使い方

いよいよ関数の使い方です。

OpenCV 4.1.0 現在、戻り値・引数リストは以下のようになっています。

C/C++

double cv::calibrateCamera(
    InputArrayOfArrays  objectPoints,
    InputArrayOfArrays  imagePoints,
    Size                imageSize,
    InputOutputArray    cameraMatrix,
    InputOutputArray    distCoeffs,
    OutputArrayOfArrays rvecs,
    OutputArrayOfArrays tvecs,
    OutputArray         stdDeviationsIntrinsics,
    OutputArray         stdDeviationsExtrinsics,
    OutputArray         perViewErrors,
    int                 flags = 0,
    TermCriteria        criteria = TermCriteria(TermCriteria::COUNT+TermCriteria::EPS, 30, DBL_EPSILON)
)

Python

retval, cameraMatrix, distCoeffs, rvecs, tvecs =
    cv2.calibrateCamera(
        objectPoints,
        imagePoints,
        imageSize,
        cameraMatrix,
        distCoeffs[,
        rvecs[,
        tvecs[,
        flags[,
        criteria
    ]]]])
retval, cameraMatrix, distCoeffs, rvecs, tvecs, stdDeviationsIntrinsics, stdDeviationsExtrinsics, perViewErrors =
    cv2.calibrateCameraExtended(
        objectPoints,
        imagePoints,
        imageSize,
        cameraMatrix,
        distCoeffs[,
        rvecs[,
        tvecs[,
        stdDeviationsIntrinsics[,
        stdDeviationsExtrinsics[,
        perViewErrors[,
        flags[,
        criteria
    ]]]]]]])


細かい話は公式ドキュメントを見ていただくことにして、ここでは主要な変数についてのみ解説していきます。

  • C/C++版の戻り値・Pythonの戻り値retval
    • 最小化問題を解いた際の最終的な再投影誤差のRMS(Root Mean Square)
    • 単位はピクセル
    • これが小さいほど、LM法が誤差なく収束していることになる
    • {\sqrt{\sum ^ N _ {j=1} \frac{1}{n _ j} \sum ^ {n _ j} _ {i=1} \|f(\mathbf{p}, \mathbf{R} _ j, \mathbf{t} _ j, \mathbf{X} _ i) - \mathbf{m} _ {j, i}\| ^ 2}}
  • objectPoints
    • モデル座標系の姿勢ごとに、モデル座標系におけるマーカー座標のリストをリストにしたもの
    • C/C++版ではstd::vector<std::vector<cv::Point3f>>に準ずる型
    • Python版では[np.array([(x1, y1, z1), (x2, y2, z2), ...], np.float32)]に準ずる型
    • Point3d型やfloat64型はダメ
    • [[np.array((x, y), np.float32)]]はダメ
  • imagePoints
    • モデル座標系の姿勢ごとに、マーカーが写り込んだピクセル座標のリストをリストにしたもの
    • C/C++版ではstd::vector<std::vector<cv::Point2f>>に準ずる型
    • Python版では[np.array([(x1, y1), (x2, y2), ...], np.float32)]に準ずる型
    • Point2d型やfloat64型はダメ
    • [[np.array((x, y), np.float32)]]はダメ
  • imageSize
    • カメラの解像度(ピクセル単位)
    • {c _ x, c _ y} の初期解を求めるときに使うだけなのでcameraMatrixの初期解を与えるときは指定しなくてもよい
  • cameraMatrix
    • {f _ x, f _ y, c _ x, c _ y} を含むカメラ行列
    • 非平面に配置されたマーカーを使うときは初期解の指定が必須
    • $$\begin{bmatrix} f _ x & 0 & c _ x \\ 0 & f _ y & c _ y \\ 0 & 0 & 1\end{bmatrix}$$
  • distCoeffs
    • 歪みパラメータのリスト
    • flagsをどう指定するかによって長さが変わる(デフォルトは5)
    • {(k _ 1, k _ 2, p _ 1, p _ 2 [, k _ 3 [, k _ 4, k _ 5, k _ 6 [, s _ 1, s _ 2, s _ 3, s _ 4 [, \tau _ x, \tau _ y ] ] ] ] )}
  • rvecs tvecs
    • モデル座標系の姿勢ごとに求めた、モデル座標系からカメラ座標系への回転ベクトルと並進ベクトル
    • 回転ベクトルはcv::Rodrigues()で回転行列と相互変換できる
    • 回転行列 {\mathbf{R}} と並進ベクトル {\mathbf{t}} を使うと、モデル座標系の座標 {\mathbf{X}} をカメラ座標系の座標 {\mathbf{x} = \mathbf{R}\mathbf{X} + \mathbf{t}} に変換できる
    • 長さの単位は、モデル座標系におけるマーカー座標を記述したときと同じ単位
    • 三次元座標の回転表現についてはこちらの過去記事にまとめています(回転ベクトル・回転行列・クォータニオン・オイラー角についてまとめてみた - かみのメモ
  • criteria
    • LM法の収束判定に使うパラメータ
    • 明らかに反復回数が足りていないなどのケースを除いてデフォルトのままでよい
  • flags
    • 列挙体はcv::CALIB_*の形で定義されている
    • 例:高次の放射状歪みを推定するとき
      • CALIB_RATIONAL_MODEL
    • 例:すべての歪みパラメータを固定するとき
      • CALIB_ZERO_TANGENT_DIST | CALIB_FIX_K1 | CALIB_FIX_K2 | CALIB_FIX_K3
      • distCoeffsに何も指定しないと0のまま固定される
    • 例:カメラ行列の初期解をこちらから与えるとき
      • CALIB_USE_INTRINSIC_GUESS
      • cameraMatrixに3×3行列を渡す

5. 結果の見方

さて、キャリブレーションが終わった後はカメラパラメータを使ってプログラムを書くだけなのですが、ちゃんとした値に収束しているのかが気になるところです。

ここからは私がいつもやっているチェック方法を紹介します。 必ずしも正しい方法とは限りませんのでご了承ください。

5.1. キャリブレーション結果の例

参考までにとあるカメラのキャリブレーション結果を添付しておきます。 撮影画像は5枚で、{k _ 3 = 0} で固定しています。

f:id:kamino-dev:20190123190429p:plain:w300
キャリブレーションに利用した画像の1枚

Image Size : (1024, 1280)
RMS : 0.3162601179834329
Intrinsic parameters :
  [[3.45238543e+03 0.00000000e+00 5.87300567e+02]
   [0.00000000e+00 3.44991446e+03 5.21409899e+02]
   [0.00000000e+00 0.00000000e+00 1.00000000e+00]]
Distortion parameters :
  [[-2.23845891e-01 -7.32573873e-01 -7.30350307e-04 -1.68303803e-03 0.00000000e+00]]
Rotation vector / Translation vector 0
  [[-0.14270636 -0.05149731 -1.55891318]]
  [[-3.85846485  2.3775021  48.44265457]]
Rotation vector / Translation vector 1
  [[0.65924161 0.87410419 1.48192946]]
  [[ 2.98064258 -3.67776322 39.63023961]]
Rotation vector / Translation vector 2
  [[ 0.37713801 -0.56964512 -1.53005519]]
  [[-4.8628964   2.10324681 39.70077357]]
Rotation vector / Translation vector 3
  [[-0.30036312 -0.22436363 -1.52070959]]
  [[-2.19763672  2.38379239 46.23177521]]
Rotation vector / Translation vector 4
  [[-0.13302378  0.47900357  0.03471266]]
  [[-0.27348193 -5.69902391 47.07153337]]

5.2. RMSを確認する

一番わかりやすいのはRMSです。 先ほども説明したように、RMS最適化問題の最終的な誤差をピクセル単位で表現したものです。 これが数ピクセル以下ならとりあえずLM法自体は正常に収束していると言っていいです(ただし正しい解に収束したとは限らない)。

これがあまりに大きい値を取っているときは、LM法の反復回数が足りていないか、入力データにミスがあるか、撮影の際にモーションブラーなどのひどいノイズが乗ってしまっているかのいずれかだと思います。

また、RMSは画角やピクセルに対してスケールされるので画素数が多くなるほどもしくは画角が狭くなるほど大きい値を取りやすいという点に注意してください。 異なるカメラセットアップのキャリブレーション結果をRMSで比較しても意味はありません。

5.3. カメラ行列を確認する

次にわかりやすいのは焦点距離 {f _ x, f _ y} と中心座標 {c _ x, c _ y} です。 {f _ x, f _ y} が大体同じ値を取っていて、{c _ x, c _ y} が画像の中心座標に近ければOKです(光軸が斜めを向いているようなカメラを除く)。

これが大きくズレている場合は、データ数(撮影回数)が足りていないか、ノイズが乗ってしまっているかのどちらかの可能性が高いです。

5.4. 歪みパラメータを確認する

歪みパラメータの確認は難しいのですが、目安として絶対値が10を超えているときは疑ってかかったほうがよいでしょう。 とはいえ、{k _ 1} が負で {k _ 2} が正であるために互いの歪みが相殺されて最終的な見た目はそれっぽくなっているというケースもあります。

先ほども紹介しましたが、歪みパラメータを可視化するツールを作ったので目安として使ってみてください。

Camera Distortion Simulator

5.5. 回転・並進ベクトルを確認する

回転・並進ベクトルも検証が難しいですが、慣れてくると何となくそれらしい値になっているかを確認できるようになります。 わかりやすい部分としては、並進ベクトルのz成分がカメラからオブジェクトまでのおおよその距離を表しているので、それっぽい値になっているか確認してみましょう。 長さの単位は、モデル座標系におけるマーカー座標を記述したときと同じ単位になります。

6. 良い結果が出なかったときの試行錯誤

  1. チェッカーボードが曲がっていないか/正しいものを使っているか確認する
    • チェッカーボードを使う場合、厳密に平面であるという条件がかなり重要になってきます。アクリル板など丈夫な板に貼り付けましょう。PC画面に表示させたものを使ってもいいです。
    • また気付きにくい仕様ですが、OpenCVfindChessboardCorners()はチェッカーパターンの周りに白色の余白があることを前提としています。余白があるかを確認しましょう。
  2. 画像がきれいに撮影できているか確認する
    • 手ブレや蛍光灯の反射光の映り込みがあるとパターンをうまく検出できないことがあります。
    • 焦点ボケのせいでチェッカーパターンがボケてしまっている場合は、カメラの露光を絞ってみるか、ボケに強いドットパターンの使用を検討してみましょう。
  3. データ数(撮影枚数)を増やす
    • Zhangの論文では5枚だけですが、OpenCVの実装では推定するパラメータが増えているので、正確を期すなら10枚、余裕があれば15枚以上撮影しておくのがよいと思います。
    • 同じ姿勢ばかり撮影してもあまり意味がないので色々な姿勢を試しましょう。
  4. 初期解を与える
    • それらしい初期解を与えると、結果が劇的に改善されることもあります。
    • 特に重要なのはカメラ行列の初期解です。{c _ x, c _ y} は画像の中心のピクセル座標を計算するだけですし、{f _ x, f _ y} もレンズの焦点距離、撮像素子のサイズをメーカーの説明書で調べれば先ほどの計算式で簡単に割り出せます。
    • CALIB_USE_INTRINSIC_GUESSフラグを立てるのを忘れずに。
  5. 歪みパラメータを減らす
    • 多くの歪みパラメータを使用する設定にしていると、うまく収束しないことがあります。一度思い切って使用する歪みパラメータを減らしてみましょう。

以上、calibrateCamera関数周りの話をまとめました。