Learning DX Study Group 2025年度活動レポートVol.1
- ATD-IMNJ広報

- 9月9日
- 読了時間: 4分

当スタディーグループでは、人事担当部門(HR)や人材開発担当部門(L&D)の実務をこなすときに活用しているITツール、テクノロジーの事例を収集・分析し、そこから見える実務で効果的に応用できるノウハウを抽出、蓄積し、近い将来、HRとL&D、そして、現場の学びがどのような姿を目指すべきかを描いたり課題を見つけたりしていくことを主眼に置いて活動しています。
先に2024年度活動報告を公開しましたが、2025年度も数回にわたって活動報告を公開していく予定です。以下はその第1弾となります。
人事・労務でのAI活用状況について
人事・労務では、「3人に1人以上が業務でAIを活用している」らしい。
1年前に比べると驚きの結果だが、実際どのようなところで、使われているのか。
日本の場合、
履歴書や評価シートのレビュー
会議の議事録作成、その他文書作成・編集
社内資料やメールの作成
日程調整・情報収集
あたりだそうだが、これが米国だと、
採用関連業務全般(求人票作成、履歴書・職務経歴書スクリーニングなど)
候補者コミュニケーションや面接質問生成
従業員向けコミュニケーション文書の作成
スキル学習パス作成
などとなる。
日本では、どちらかというと定型業務をChatGPTなどを使って効率化する用途が中心となっている。課題(AIを高度に実装しているHRはまだ少ない、倫理・コンプライアンスへの配慮など)は、まだまだあるが、AIを実装するサービスが増える中で、AX人材を育成するためのプログラムを考えないといけないHR、HRDのメンバ自体が利用を深めていることはいい傾向ではないだろうか。
ChatGPTに、会議の評価をお願いしてみた
対面でもリモートでも、だらだら会議を防ぎたい。結論が出ない、何度も同じ議論の繰り返しとなってしまう、そんな会議がまだまだある。ファシリテーション力を高めよう、と言われても、限界がある。最終的には、突っ込みのできるAIファシリテーションができるといいのだが、まずは、ChatGPTに会議自体を評価してもらうことにした。
まずは、ChatGPTに「よい会議」とはどういうものかを聞いてみた。

上記以外に、具体的な「よい会議」の特徴、目的別の「よい会議」の定義例、会議中の工夫などを回答してくれた。このままでも悪くないが、必要に応じて、「よい会議」に対して軌道修正を行えばよい。
会議を評価するには、我々にとってもわかりやすいのは、数値化すること。評価できるかを聞いてみた。

結果、上記のように回答しつつ、出力イメージと評価用プロンプト例も作成してくれた。
それでは、実際にあった会議(Zoom)を評価してもらおう。
半自動化にするには、APIやPythonが必要になりそうなので、今回は、ベタでChatGPTにZoomのAIコンパニオンが作成した要約を張り付けてみた。

結果は以下の通り。

数字だけでなく、フィードバック、活用案までもらえた(笑)

振り返ってみる
今回の結果は、比較的緩やかなスコアリング基準に基づいて評価を行ったものである。しかしながら、本来は「目的の明確度」(例:会議の目的が明言されたか、参加者間で共有されていたか、議論の内容と一致していたか など)といった観点ごとに、より厳密で具体的な重みづけを行った方がいいだろう。
今回は会議のスクリプト全文をChatGPTに投入し、全体に対する総括的な評価を出力したが、コンテキスト量に対して評価の粒度が粗くなりがちである点は留意すべきかな、と。アジェンダありきの会議では、議題ごとに評価単位を分けてスコアリングすることが適切だろう。また、特定の発言者に偏っていないか、発言量や発言バランスの可視化によって偏りを検出し、「全員が知恵や意見を出し切れているか」という観点も評価軸として組み込むことができる。
さらに質を高めるには、「本筋の議論」と「雑談」の区別を明示的に行い、会議内における脱線率の可視化も評価項目に加えることが考えられる。
加えて、ファシリテーターの進行スキルや介入の質についても、評価対象に含める余地がある。たとえば、参加者からの意見を引き出す問いかけがあったか、議論を収束させる力が発揮されたか、脱線時のリカバリーが機能していたかなど、会議の質を左右する重要な要素としてファシリテーションレベルを定性的・定量的に評価できる仕組みも考えられる。
今回のプチテストから、会議の評価をより客観的・実用的にしていくための方向性が見えてきた。今後の改善に向けたよい足がかりとなったと感じている。
2025年9月 ATD-MNJ Learning DX スタディグループ


