OpenCVによる画像処理の基本
OpenCVは画像解析や機械学習によく利用される、コンピュータービジョンライブラリの一つです。基本的な画像変換だけでなく、画像のフィルター処理、顔認識、物体認識、オブジェクトトラッキングなど、実務でよく利用される機能が一通りそろっている非常に使いやすいライブラリになっています。実務で画像認識系の仕事をする際は必ず利用するライブラリになっています。
こちらの記事では回転や領域の検出、ぼかしなどの基本的な画処理の例を備忘録として残しておきます。
github
- jupyter notebook形式のファイルはこちら
google colaboratory
- google colaboratory で実行する場合はこちら
環境
筆者のOSはmacOSです。LinuxやUnixのコマンドとはオプションが異なります。
筆者の環境
!sw_vers
ProductName: Mac OS X
ProductVersion: 10.14.6
BuildVersion: 18G95
!python -V
Python 3.5.5 :: Anaconda, Inc.
import cv2
print('opencv version :', cv2.__version__)
opencv version : 3.4.1
画像表示用にmatplotlibもimportします。画像はwebでの見栄えを考慮して、svgで保存する事とします。
%matplotlib inline
%config InlineBackend.figure_format = 'svg'
import matplotlib.pyplot as plt
上の階層に lena.jpg というファイルがあるとします。
%%bash
ls -a ../ | grep jpg
binary_out.jpg
bitwise_out.jpg
gray_out.jpg
lena.jpg
lena_out.jpg
rotation.jpg
rotation_scale_1_angle_-30.jpg
rotation_scale_1_angle_30.jpg
rotation_scale_2_angle_-30.jpg
rotation_scale_2_angle_30.jpg
filename = '../lena.jpg'
画像の読み込み
画像を読み込み、表示してみます。jupyter notebookの中で表示させるため、matplotlibを利用しています。
img = cv2.imread(filename=filename)
# OpenCVではGBRの準備で画像が読み込まれるが、JupyterNotebookではRGBで表示させる
rgb_img = cv2.cvtColor(img, cv2.COLOR_BGR2RGB)
plt.imshow(rgb_img)
plt.show()
# 後のためにグレースケールの画像を作っておきます
gray_img = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
画像情報の取得
画像の高さ、幅、カラーの場合の色の数(通常RGBの3)を確認します。
def get_image_info(img):
if len(img.shape) == 3:
img_height, img_width, img_channels = img.shape[:3]
print('img_channels :', img_channels)
else:
img_height, img_width = img.shape[:2]
print('img_height :', img_height)
print('img_width :', img_width)
get_image_info(img=img)
img_channels : 3
img_height : 225
img_width : 225
画像の保存
imwriteメソッドを利用します。
out_filename = '../lena_out.jpg'
cv2.imwrite(out_filename, img)
True
画像の回転
任意のサイズのスケールで回転させる関数を実装します。
def rotate_image(img, scale, angle):
if len(img.shape) == 3:
img_height, img_width, img_channels = img.shape[:3]
else:
img_height, img_width = img.shape[:2]
size = tuple([img_width, img_height])
center = tuple([int(img_width / 2), int(img_height / 2)])
rotation_matrix = cv2.getRotationMatrix2D(center, angle, scale)
rotation_image = cv2.warpAffine(img, rotation_matrix, size, flags=cv2.INTER_CUBIC)
# jupyter notebook に表示するときだけBGRをRGBに並べ替える
rotation_rgb_img = cv2.cvtColor(rotation_image, cv2.COLOR_BGR2RGB)
plt.imshow(rotation_rgb_img)
plt.show()
out_filename = '../rotation_scale_{}_angle_{}.jpg'.format(scale, angle)
cv2.imwrite(out_filename, rotation_image)
画像の真ん中を中心にか30度回転してみます。
rotate_image(img=img, scale=1, angle=30)
サイズを2倍にして、画像の真ん中を中心にか30度回転してみます。
rotate_image(img=img, scale=2, angle=30)
画像の真ん中を中心にか-30度回転してみます。
rotate_image(img=img, scale=1, angle=-30)
余白部の削除 領域の抽出
OpenCVでは画像上の領域を抽出することが出来ます。 findContoursメソッドを利用して、領域を抽出し、余計な部分を削除してみます。 今回は例としてlenaさんではなく、とある開発で使った画像を利用します。
temp_img = cv2.imread(filename='../10.svg')
contours_gray_img = cv2.cvtColor(temp_img, cv2.COLOR_BGR2GRAY)
plt.imshow(contours_gray_img)
plt.gray()
plt.show()
def get_contours(img, off_set=1):
_contours_image = img
image, contours, hierarchy = cv2.findContours(img, cv2.RETR_TREE, cv2.CHAIN_APPROX_SIMPLE)
x1, y1, x2, y2 = [], [], [], []
for i in range(1, len(contours)):
# ret の中身は (x, y, w, h)
ret = cv2.boundingRect(contours[i])
x1.append(ret[0])
y1.append(ret[1])
x2.append(ret[0] + ret[2])
y2.append(ret[1] + ret[3])
x1_min = min(x1)
y1_min = min(y1)
x2_max = max(x2)
y2_max = max(y2)
# 枠取りをした結果を表示
cv2.rectangle(_contours_image, (x1_min, y1_min), (x2_max, y2_max), (0, 255, 0), 2)
# 少し余白を付けて付けて切り出し
y1_min -= off_set
y2_max += off_set
x1_min -= off_set
x2_max += off_set
_contours_image = img[y1_min:y2_max, x1_min:x2_max]
plt.imshow(_contours_image)
plt.gray()
plt.show()
get_contours(img=contours_gray_img)
ガウシアンフィルター
ガウス関数を重みとして、周りの画像の平均値を取ります。平均化する範囲を指定するカーネルとガウシアンの標準偏差$\sigma$を指定します。
def show_gaussian_filter(img, average_size, sigma):
_ret_image = cv2.GaussianBlur(img, (average_size, average_size), sigmaX=sigma, sigmaY=sigma)
# jupyter notebook に表示するときだけBGRをRGBに並べ替える
ret_image = cv2.cvtColor(_ret_image, cv2.COLOR_BGR2RGB)
plt.imshow(ret_image)
plt.show()
show_gaussian_filter(img, average_size=11, sigma=10)
show_gaussian_filter(img, average_size=21, sigma=10)
show_gaussian_filter(img, average_size=3, sigma=10)
canny法によるエッジ検出
物体の境界(エッジ)を検出するためにcanny法というものがあります。単純に画素の出力値の勾配を取って判定しますが、閾値が二つあり最適化した状態で利用するには少し経験が必要です。threshold2が境界かどうかを決める割合の大きい閾値であり、私の経験的にはthreshold2を決めてからthreshold1を決めていくというようにすると良いかと思います。
def show_canny_image(img, th1, th2, aperture):
temp = cv2.Canny(img, threshold1=th1, threshold2=th2, apertureSize=aperture)
# jupyter notebook に表示するときだけBGRをRGBに並べ替える
plt.imshow(temp)
plt.gray()
plt.show()
二つの閾値、threshold1とthreshold2によってどのように画像が変化するか見てみます。
# fig, axes = plt.subplots(nrows=5, ncols=5, sharex=False)
fig = plt.figure(figsize=(10.0, 10.0))
cnt = 0
for th1 in range(0, 500, 100):
for th2 in range(0, 500, 100):
cnt += 1
if th1 <= th2:
temp = cv2.Canny(gray_img, threshold1=th1, threshold2=th2, apertureSize=3)
fig.add_subplot(5, 5, cnt)
plt.gray()
plt.axis('off')
plt.imshow(temp)
plt.show()
上の図は横軸がthreshold2で縦軸がthreshold1です。右に行けば行くほど、下に行けば行くほど閾値が大きくなります。右下に行く方が閾値が大きくなるので、境界値として認識される部分は少なくなり、黒が目立つようになります。とはいえ、これでは正直threshold1とthreshold2の違いがいまいち分かりませんね笑