レビュー指摘効率を箱ひげ図で見てみる

その他

ソフトウェアの品質、大丈夫かな?
この疑問は開発者よりもマネージャの方が多く考えることではないでしょうか?
典型的なソフトウェア品質分析というと、レビュー記録の分析が挙げられます。
今回はそんなレビューが、効率良く実施できていますか?を分析してみます。

使う指標は単純で、

  • レビュー工数(実施した人数×時間)
  • レビュー指摘件数
  • レビュー指摘効率(レビュー指摘件数÷レビュー工数)

です。
「レビュー指摘効率」は単位時間当たりに何件指摘できましたか?という指標です。

今回もサンプルデータを使用します。

ユニット名称記録名称レビュー工数[人時]指摘件数[件]レビュー指摘効率
ソフトウェアユニットA記録1122.00
ソフトウェアユニットA記録2122.00
ソフトウェアユニットA記録31.510.67
ソフトウェアユニットA記録4231.50
ソフトウェアユニットA記録51.752.94
ソフトウェアユニットA記録61.842.22
ソフトウェアユニットB記録71.510.67
ソフトウェアユニットB記録81.642.50
ソフトウェアユニットB記録9122.00
ソフトウェアユニットB記録100.900.00

表のまま眺めてみる

早速データを見てみます。
「ソフトウェアユニットA」「ソフトウェアユニットB」の二つの部位のデータのようです。
それぞれ何度かレビューした記録ですね。
レビュー指摘効率を見ると、一番効率が良い時は記録5の2.94、効率が悪い時は記録10の0.00だと分かります。
これだけだと、効率が良い時と悪い時がある、くらいしか分かりません。

時系列データとして見てみる

図1のように、レビュー指摘効率をユニット別に時系列にプロットしてみます。
今回のサンプルデータでは傾向が見えませんが、もしかしたら回数を重ねると効率が上がる・下がるなどの傾向が出るかもしれませんね。

図1 時系列プロット

箱ひげ図で見てみる

次は図2のように、レビュー指摘効率を箱ひげ図にしてみました。
箱ひげ図の作り方や、読み方はたくさん紹介されているページがあるので省略します。
(このページとか)

×印が中央値なので、ソフトウェアユニットAの方が効率が良いことが分かります。
箱ひげ図だと、最大値・最小値もプロットされているので、比較しやすいですね。
箱ひげ図で見ると、バラつきが一目で分かります。
このサンプルデータだと、ソフトウェアユニットBの方がバラついていることが分かります。

図2 箱ひげ図

おわりに

今回はレビュー記録を元に、レビュー指摘効率を計算しました。
その結果を、

  • 表のまま分析する
  • 時系列グラフにして分析する
  • 箱ひげ図にして分析する

をやってみました。
いかがだったでしょうか?
サンプルデータだとあまり分からなかったかもしれませんが、表とグラフが如何に強力なツールなのか、少しでも伝わっていると嬉しいです。

その他
スポンサーリンク
thunder2をフォローする
サンダー製作所

コメント