• 日本語
    • English (英語)
Avinton JapanAvinton JapanAvinton JapanAvinton Japan
  • サービス
    • Avinton Data Platform
    • エッジAIカメラ
      • 自動車ナンバープレート自動認識システム
    • プライベートクラウド
    • AIサービス開発
    • AIカメラ/画像解析無料体験版
  • 最新情報
    • ニュースリリース&イベント情報
    • 技術ブログ&インタビュー
  • アカデミー
    • Avintonアカデミー
    • Academy on Campus
    • Academy with Platform
  • 採用情報
    • Avintonジャパン 採用ページ
    • 求人一覧
    • よくある質問
    • 新卒採用
  • 企業情報
    • 会社概要
    • 代表からご挨拶
    • SDGsへの貢献
  • お問い合わせ

Object Detection with YOLOv8

  • ルーティング
  • データベースの命名規則
  • 三目並べ – 2.〇×を交互にゲーム盤に入るようにしよう
  • 三目並べ – 3.勝敗がつくようにしよう
  • クリーンコード(Clean Code)
  • 三目並べ – 4.「スタート」「リセット」ボタンをつけよう
  • 三目並べ – 5.先攻後攻を決めて、コンピュータ対戦にしよう(前編)
  • インフラストラクチャー(サーバー、コンポーネント、RAID)
  • 機械学習入門者向け Support Vector Machine (SVM) に触れてみる
  • YOLOv8を用いた物体検出
  • 正規表現とパイプ
  • 機械学習エンジニアに必要なスキル
  • 軽量版Kubernetesディストリビューション – k0s クラスターの構築
  • ファイル操作コマンド
  • グループとユーザー
  • 困った時に使うコマンド
  • 一般グループのユーザーとグループ
  • プライバシーポリシー
  • 三目並べ – 6.先攻後攻を決めて、コンピュータ対戦にしよう(後編)
  • フロントエンド開発のための環境構築
  • ファイル検索コマンド
  • 質問
  • 仮想化環境のディスク容量を拡張する
  • ユーザー権限とアクセス権
  • データ分析基礎 – Part1
  • 三目並べ – 0.導入
  • テキスト処理
  • データベースへのデータロード
  • 機械学習概要1
  • 機械学習入門者向け Naive Bayes(単純ベイズ)アルゴリズムに触れてみる
  • ファイル管理
  • SSHを使用してホストOSからゲストOSに接続する
  • 機械学習入門者向け ChainerRLでブロック崩しの学習
  • 機械学習入門者向け ランダムフォレストによる Kaggle Titanic生存者予測
  • 機械学習概要2
  • データ分析基礎 – Part 2
  • 機械学習入門者向け 分類と回帰の違いをプログラムを書いて学ぼう
  • フロントエンドのWeb開発について
  • ダイナミックルーティング
  • 三目並べ – 1.ゲーム盤を作ろう
  • 【Python入門】Python Numpy チュートリアル
  • Amazon EC2 インスタンスの初期設定をしよう
  • AmazonEC2とVPCでネットワークとサーバーを構築しよう
  • Apache NiFi Exercise
  • Apache NiFi データパイプライン基礎
  • Apache NiFiの環境設定
  • Apache Spark 基礎
  • Apache SparkとApache Zeppelinの概要と環境構築
  • Apache Superset maptoolの使い方
  • Apache Superset 基礎
  • Apache Superset 概要と環境構築
  • Apache Zeppelin 基本機能
  • APIのデモンストレーション
  • Avinton Academy コンテンツガイド
  • AWS CLIをインストールしてコマンド操作しよう
  • AWS CLIを使ってEC2のファイルをS3へアップロードしよう
  • AWS Route 53を使って独自ドメインのWebページを表示させてみよう
  • AWSアカウントの作成と必ずやるべきセキュリティ対策
  • AWSのEC2インスタンスでWordPressブログを公開してみよう
  • AWS入門者向け 初心者が最初に理解すべきEC2とVPCの基本的な用語解説
  • CCNA
  • Certbotを使ってSSL証明書を発行し、HTTP通信を暗号化しよう
  • CISCO 1800ルータセットアップ
  • CSV import & export – Node.js, mySQL – 1
  • CSV import & export – Node.js, mySQL – 2
  • Docker Compose(Nginx + Flask + MySQL)演習
  • Docker Engineのubuntu上へのinstall
  • Docker 概要とセットアップ
  • Docker, Kubernetesの学び方について
  • Dockerコンテナイメージの最適化/ベストプラクティス
  • DockerとApacheを使ってWebサーバーを構築しよう
  • EC2からS3へ自動でぽいぽいアップロードするスクリプトの作成
  • ESP32-CAMのサンプルアプリケーションを実行する
  • 01 – Sparkfun Inventor’s Kit の準備
  • 02 – Sparkfun Inventor’s KitでLチカ
  • 03 ポテンショメータでLEDの点滅間隔をアナログ入力する
  • 04 フォトレジスタで明るさに反応するシステムをつくる
  • 05 LCDに文字列を表示する
  • 06 – BME280とLCDを組み合わせて温度計をつくる
  • ESP32とArduino IDE/PlatfromIOでHello Worldアプリケーションの実行
  • ESP32と超音波センサー HC-SR04 で物体の距離を計測する
  • ESXi – Switchの追加とVLAN
  • ESXi – VyOS
  • ESXi – 小規模ネットワーク 構築
  • Gitとは
  • VS CodeでGitHub Copilotを設定する
  • VSCode リモート開発環境
  • GNS3のセットアップ
  • Kubernetesクラスター上へのOpenVINOモデルサーバーを使用したサンプルアプリケーションのデプロイ
  • Linuxとは
  • NAT
  • NodeJSでWebアプリケーション開発 – React編
  • NodeJSでWebアプリケーション開発 – React編
  • NodeJSでWebアプリケーション開発 – React編
  • NodeJSでWebアプリケーション開発 – Socket.IO編
  • NVIDIA Cumulus VX + GNS3でBGPネットワークのシミュレーション
  • OpenCVのテストプログラム
  • PacketTracerのセットアップ
  • Pandasによる構造化データ分析
  • PCからルータ、スイッチへのSSH接続設定
  • PostGIS exercise
  • PostgreSQL – Python – Apache – Bootstrap
  • MySQLとMySQL Workbench のセットアップ
  • PostgreSQL Setup
  • PostgreSQL – インデックスを利用したパフォーマンス改善方法
  • PostgreSQL – パーティショニングを利用したパフォーマンス改善方法
  • PostgreSQLによるデータ分析
  • postgreSQLへのshp fileのimport
  • Python2.7とOpenCVのインストール
  • Python3.8 と OpenCV のインストール (Ubuntu20.04LTS)
  • Pythonでデータベースを操作する
  • Pythonで画像を分類するプログラムを作成する
  • Pythonによるマルチスレッドプログラミング実践
  • Raspberry Pi 4B のセットアップ
  • Raspberry PiとBME280を使用して温度と湿度、気圧を読み取る
  • REDIS
  • Redux基礎 – 主要な概念と用語
  • Ruby on Rails を MySQLでセットアップ
  • Ruby on Railsによる簡単なウェブアプリケーション
  • SampleアプリケーションのKubernetes上へのデプロイ
  • Scala 基礎
  • scikit-learnとは
  • Spark SQL エクササイズ
  • SparkMLによるKaggle Titanic生存者予測
  • KNIME, AutoMLライブラリによる住宅価格予測
  • SparkMLによる住宅価格予測
  • SQL 便利な関数
  • Ubuntuの基本設定
  • uhubctlでUSBデバイスのオンオフをコントロール
  • Terraform入門 2 – Terraformのstate管理
  • Terraform入門 1 – TerraformでAWS上にEC2インスタンスを作成する
  • Virtualisation and Container (仮想化とコンテナ) – Ansible, Docker and Kubernetes
  • viエディタ
  • VLAN
  • VMware ESXi サーバー構築
  • Webアプリ開発に欠かせないGoogle Chrome DevToolsの基本
  • Windows Server 2012 R2 Hyper-V
  • Object Detection with YOLOv8
Home Avintonアカデミー Object Detection with YOLOv8
Object Detection with YOLOv8

このタスクでは、物体検出モデルYOLOv8を活用して、犬の検出を行います。

このコンテンツでは、無料で使えるアノテーションツールであるMake Sense AIとクラウド型のPython実行環境であるGoogle Colaboratoryを使用して取り組みます。

物体検出とは

物体検出とは、画像や動画の中から物体を検知する技術のことです。
物体検出は、画像や動画の中に特定の物体が確認された場合に位置や種類、個数を特定することができます。
製造業の外観検査、医療や建設業などに利用されることが多い技術で、身近な例では、スマホのカメラ、自動運転における歩行者の検知などにも利用されています。

YOLOとは

YOLO(You Only Look Once)とは処理速度が他のモデルより高速な物体検出アルゴリズムの1つです。
YOLOには様々なバージョンがあり、現在では、YOLOv1〜v11まであります。(2025年1月時点)
本コンテンツで使用するYOLOv8は、PyTorchを使用しており、処理速度、精度が高くバランスの良いモデルです。
※PyTorchは、Pythonのオープンソース機械学習ライブラリです。

データセット

データセットとは、AIや機械学習モデルを学習させるために用意された、まとまったデータの集まりです。
物体検出は、このデータセットを使用して検出する物体の特徴を学習させて行います。

1. データセット画像の取得

Dog_images.zip
こちらの100枚の犬の画像をダウンロード後、zipファイルを解凍します。
imagesフォルダとlabelsフォルダを作成し、ダウンロードした画像をimagesフォルダに格納してください。

データ取得元:Kaggle Animal Faces
※今回はKaggleからデータセットをダウンロードしています。
※検出したい物体を決めて、ネット等で集めた画像を使用しても構いません。
※Kaggleは、世界中のデータサイエンティストが集まって、データ分析や機械学習の課題に挑戦するプラットフォームです。

データセットをダウンロード

Make Sense AIを使用したアノテーション

物体検出を行う前に、画像内のどれが犬にであるのかをAIに学習をさせるために、ラベルを付ける必要があります。
この作業のことをアノテーションといいます。
今回はMake Sense AIという、ブラウザ上で動作するツールを用いてアノテーションを行います。

アノテーションの手順

1.以下のURLをクリックしてサイトにアクセスします

https://www.makesense.ai/

2.Get Startedをクリックします

Get Startedをクリックします

3.赤枠の部分をクリックし、先ほど取得したデータセットをインポートします

データセットをインポート

4.赤枠内のObjectDetectionをクリックします

ObjectDetectionをクリックします

5.赤枠内をクリックする

赤枠内をクリックする

ラベルの名前を付けることができるので、dogと名前を付け、Start projectをクリックしてアノテーションを開始しましょう

アノテーションを開始

6.今回のアノテーションは矩形ラベルによる範囲の指定で行うため、Rectを選択します

Rectを選択

7.画像内の犬の範囲を選択します。

画像内の犬の範囲を選択

赤枠の箇所にSelect Labelと表示されるので先ほど作成したラベル、dogを選択します

dogを選択

これで、この範囲が犬であるとラベルを付けることができました。

この範囲が犬であるとラベルを付ける

8.次の画像をクリックしてラべルを付けていきます。

次の画像

この要領ですべての画像のアノテーションを行っていきましょう。

注意
Make Sense AI はブラウザ上で動作するアプリケーションのため、作業は途中保存されません。

9.アノテーションが完了したら、左上のActionをクリックして

左上のActionをクリック

Export Annotationsを選択します

Export Annotationsを選択します

YOLO形式で保存するため一番上のチェックボックスにチェックを入れて保存して、保存されたファイルを解凍しましょう。

訓練データと検証データ

ラベル付けが終わったら、以下のようなディレクトリ構造でドライブ上に作成します。
学習に使用する画像ファイルと、先ほどラベル付けを行ってダウンロードしたファイルを訓練データ(train)と検証データ(valid)をペアとして以下のようなファイル構造でランダムに振り分けるプログラム(例 train : 8 , valid :2)を作成してください。

  • Image(100枚) : train:80枚 valid:20枚
  • label(100枚) : train:80枚 valid:20枚

Directory Structure

1
2
3
4
5
6
7
# dataset/
#     ├── images/
#     │   ├── train/   ← 学習用画像(.jpg/.png)
#     │   └── val/     ← 検証用画像
#     └── labels/
#         ├── train/   ← train に対応する .txt(YOLOフォーマット)
#         └── val/     ← val に対応する .txt

YOLOv8を用いた学習

ここからは学習フェーズになります。
用意した訓練データを用いて、モデルに学習させましょう。
開発環境はローカルでも良いですが、GPUを使うためにGoogle Colaboratory を使用することにします。
GPUを使って学習することで以下のメリットがあります。

  • 学習時間の短縮
    • モデル改良の試行回数を増やせる
  • 推論速度の向上
    • リアルタイム検出アプリへの応用が容易
  • 大規模データへの対応
    • データ拡張や高解像度画像も快適

1.Google Driveの任意の場所に作業ディレクトリ(フォルダ)を作成
データセットや学習結果が保存されるディレクトリ(フォルダ)を作成します。

2.画像データをGoogle Driveにアップロード
Google Driveを開き、先程用意したデータセットを 1. で作成したディレクトリにアップロードしてください。

3.Google Colaboratoryを開きます。

 

1. で作成した作業ディレクトリに移動し、

作業ディレクトリに移動

右クリックをした後に、「その他」を選択してください。

その他を選択

Google Colaboratoryを選択して開きましょう。

Google Colaboratoryを選択して開く

4.Colabの「ランタイム」というタブをクリック

ランタイムをクリック

5.「ランタイムのタイプを変更」をクリック

ランタイムのタイプを変更

6.「T4 GPU」を選択し、保存する。

「T4 GPU」を選択

これでGPUを使って学習することができます。

7.Driveをマウントする。

Google DriveとColabを連携するために、Driveをマウントします。
以下のコードをセルで実行してください。

1
2
from google.colab import drive
drive.mount('/content/drive')

8.以下のコードをセルで実行し、作業ディレクトリを変更します。

1
%cd "作業ディレクトリへのパス"

9.YOLOv8環境構築
YOLOv8を使った物体検出を行うには、まずUltralyticsが提供するライブラリをインストールする必要があります。以下のコマンドで、YOLOv8を含む関連パッケージをインストールします。

1
!pip install ultralytics

インストールが完了したら、次にYOLOクラスをインポートして、モデルの学習や推論ができる準備をします。

1
from ultralytics import YOLO

これで、YOLOv8を用いたモデルのロードや学習、推論が行える環境が整いました。

10.yamlファイルの作成
モデルにdatasetを入力するための設定ファイルを作成します。
以下のコードを実行してください。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
yaml_content = """\
# 訓練用画像、検証用画像のフォルダまでのパスをそれぞれ記述する
# パスは step.8 「作業ディレクトリの変更」のパートと同様に取得することができる
 
train: /content/drive/MyDrive/.../dataset/images/train
val: /content/drive/MyDrive/.../dataset/images/train
 
nc: 1 # クラスの数
names: [ 'dog' ] # クラスの名前のリスト
"""
 
# ファイルとして保存
with open("data.yaml", "w") as f:
    f.write(yaml_content)

 

11.学習(training)
以下のコードを実行して、YOLOv8nという学習済みのモデルをファインチューニングします。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
# 1. モデルのロード
model = YOLO("yolov8n.pt")  # Nanoモデルを事前学習済みのウェイトで読み込み
 
# 2. 学習実行
results = model.train(
    ### Train settings ###
    data="data.yaml",    # データ設定ファイルのパス
    epochs=100,           # 総エポック数:100
    imgsz=640,           # 入力画像サイズ:640×640 にリサイズ
    batch=16,            # バッチサイズ:16
    device=0,            # GPU0を使用。CPUなら"cpu"、複数GPUなら[0,1]なども可
    # project="runs/detect/train", # 出力ディレクトリのパス
    # name="my_project",  # プロジェクト内のサブフォルダ名
    optimizer="SGD", # オプティマイザの選択
 
    ### Augmentation Settings ###
    )

パラメータは他にもあるので公式ドキュメントを参照し、試行錯誤してみてください。

https://docs.ultralytics.com/modes/train/#train-settings

学習済みモデルはデフォルトで、/作業ディレクトリ/runs/detect/train/weights/best.pt として保存されます。
出力ディレクトリを変更したい場合は、step.11 のパラメータproject=”出力ディレクトリのパス” を変更しましょう。
変更せずに複数回学習を行うと自動で、train, train2, train3, … というように連番が付与されて学習結果が保存されます。
step.11 のname パラメータを変更することでプロジェクトの名前を指定することができます。

12.推論(Inference or Predict)
それでは学習したモデルを用いた推論を行いましょう。
作業ディレクトリに推論を行いたい画像を配置してください。
sourceパラメータに推論を行いたい画像のファイル名を指定してください。(例: test.jpeg)

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
# 1. 学習済みモデルをロード
# 'runs/detect/train//weights/best.pt' はデフォルトの学習出力先です。
model = YOLO('ここに学習済みモデルのパスを入力')
 
# 2. 推論設定
#    ・source: 画像パス ('image.jpg')、ディレクトリ ('/path/to/images/')
#    ・imgsz: 推論時の入力サイズ (学習時と同じ推奨)
#    ・conf: 信頼度閾値 (0.0~1.0)
#    ・iou: NMS(非最大抑制)のIoU閾値
#    ・device: 'cpu' or '0','1'…(GPU デバイス番号)
results = model.predict(
    source='test.jpeg',  # 単一画像なら 'test.jpg'というようにファイル名のみ
    imgsz=640,
    conf=0.25,
    iou=0.45,
    device='0',
    save=True,              # 推論結果の画像を保存(デフォルト: runs/detect/exp)
    save_txt=False,         # バウンディングボックス情報をYOLOフォーマットでテキスト保存
)

下記の様な推論結果が、/runs/detect/predict/ に格納されていたら成功です。

推論結果

https://docs.ultralytics.com/ja/usage/python/#predict

 

チャレンジ問題

1. 複数の物体を検出しましょう

例: 以下のように一つの画像に複数の物体が写っている場合の物体検出です。

複数の物体検知

2. 精度(mAP)を向上させましょう

あなたも、Avintonでこのような最先端技術を習得し活用してみませんか?

社員の成長を導きながら、AIやビッグデータなどの最先端技術をプロジェクトに活用していくことが私たちのビジョンです。Avintonの充実した技術研修でスキルアップを図り、あなたのキャリア目標を一緒に達成しませんか?

採用情報

採用情報

採用情報

Categories

  • 相互学習
  • 採用
  • 社員インタビュー
  • 学習&資格取得
  • 技術解説
  • イベント告知
  • 学内説明会&講義
  • 産学連携
  • 就職活動
  • イベントレポート
  • その他
  • 技術ブログ&インタビュー
  • mainpage
  • New Graduates Interviews
  • 中途エンジニア
  • カテゴリーなし
  • ニュースリリース&イベント

Avinton SDGs

SDGsへの貢献

Search

タグ

AIカメラ AI活用事例 AvintonAcademy AWS Big Data ccna ChatGPT Docker Edge AI Git GUGA mikei Planet OS PM&PMO PM6PMO Ruby技術者認定試験 Scratch SSL イベントレポート エッジAI エッジコンピューティング エンジニア オープンイノベーション クラウド コンテナ技術 コーディング ソフトウェア開発 ネットワーク プログラマー リードエンジニア 仮想化 仮想化、ネットワーク、サーバー、インフラ 勉強会 協働 地引網 就職活動 帰社日 掲載告知 新年のご挨拶 深層学習 画像分類 知識蒸留 統計学 統計検定 自社開発
© 2023 Avinton | All Rights Reserved | プライバシーポリシー
  • サービス
    • Avinton Data Platform
    • エッジAIカメラ
      • 自動車ナンバープレート自動認識システム
    • プライベートクラウド
    • AIサービス開発
    • AIカメラ/画像解析無料体験版
  • 最新情報
    • ニュースリリース&イベント情報
    • 技術ブログ&インタビュー
  • アカデミー
    • Avintonアカデミー
    • Academy on Campus
    • Academy with Platform
  • 採用情報
    • Avintonジャパン 採用ページ
    • 求人一覧
    • よくある質問
    • 新卒採用
  • 企業情報
    • 会社概要
    • 代表からご挨拶
    • SDGsへの貢献
  • お問い合わせ
  • 日本語
    • English (英語)
Avinton Japan