Excelの複雑な関数式を作成するには専門知識が必要で、多くのビジネスパーソンが苦戦しています。ChatGPTやCopilotなどのAIがExcel関数を生成できるようになりましたが、実際の正答率や実務での有用性はどの程度なのでしょうか。本記事では、難易度別に設計した327問のExcel関数問題でAIを検証し、正答率、エラーパターン、業務効率化効果を定量的に評価します。
検証設計と問題の難易度分類
本検証では、ChatGPT-4、Microsoft 365 Copilot、Google Gemini Pro、Claude3.5 Sonnetの4種類のAIを対象としました。検証問題は、実務のExcel業務を分析し、頻出パターンから327問を作成しました。難易度は5段階に分類し、レベル1は単一関数(SUM、AVERAGEなど)、レベル2は2-3関数のネスト(IF+VLOOKUP)、レベル3は4-5関数のネスト(INDEX+MATCH+IF+IFERROR)、レベル4は6関数以上の複雑なネスト、レベル5は配列数式や動的配列を含む高度な関数です。
各レベルに60-70問を配分し、レベル1が67問、レベル2が71問、レベル3が68問、レベル4が63問、レベル5が58問です。問題は実務に即したシナリオで設計し、「売上データから上位10%の顧客を抽出」「条件に応じて異なる計算式を適用」「複数シートのデータを統合」など、実際の業務で必要となる処理を網羅しました。
正答判定は、生成された関数式を実際のExcelファイルに入力し、期待される結果が得られるかで判定しました。構文エラー、参照エラー、論理エラーの3種類のエラーを分類し、エラー原因も詳細に分析しました。また、正解でも非効率な式(処理が遅い、メンテナンス性が低い)は減点評価しました。
[図解: Excel関数問題の難易度分類と例示。レベル1からレベル5までの代表的な問題例と、必要な関数の種類を図示]難易度別の正答率分析
全327問の総合正答率は、ChatGPT-4が78.3%、Microsoft 365 Copilotが81.7%、Google Gemini Proが73.8%、Claude3.5 Sonnetが76.9%でした。Microsoft 365 CopilotがExcelとの統合により最も高い正答率を示しました。レベル別に見ると、正答率の差が明確に現れました。
レベル1の単一関数では、全AIが95%以上の正答率を記録しました。ChatGPT-4が97.0%、Copilotが98.5%、Gemini Proが95.5%、Claude3.5 Sonnetが96.3%です。SUM、AVERAGE、COUNT、MAXなどの基本関数は、ほぼ完璧に生成できることが実証されました。エラーの大半は、セル範囲の指定ミス(A1:A10とすべきところをA1:A100と指定)でした。
レベル2の2-3関数ネストでは、正答率が80-90%に低下しました。Copilotが91.5%と最も高く、ChatGPT-4が87.3%、Claude3.5 Sonnetが85.9%、Gemini Proが82.4%でした。代表的な問題は「IF(VLOOKUP(A2,範囲,2,FALSE)>1000,”高額”,”低額”)」のような条件判定と検索の組み合わせです。エラーの主因は、VLOOKUPの列番号指定ミスや、IFの条件式の論理エラーでした。
レベル3の4-5関数ネストでは、正答率が大きく低下しました。Copilotが76.5%、ChatGPT-4が72.1%、Claude3.5 Sonnetが68.4%、Gemini Proが63.2%です。「IFERROR(INDEX(範囲,MATCH(条件1,範囲1,0),MATCH(条件2,範囲2,0)),”未発見”)」のような複雑なネストでは、関数の組み合わせ順序や引数の指定が複雑になり、エラーが増加しました。
レベル4の6関数以上の複雑なネストでは、正答率が50%前後に低下しました。Copilotが58.7%、ChatGPT-4が52.4%、Claude3.5 Sonnetが49.2%、Gemini Proが44.4%です。複数の条件判定、複数シートのデータ参照、エラー処理を含む関数では、AIの限界が顕著になりました。生成された式は構文的には正しくても、論理的に誤っている(意図した結果が得られない)ケースが増加しました。
レベル5の配列数式や動的配列では、Excelのバージョンや機能への理解が必要で、正答率は更に低下しました。Copilotが63.8%と比較的高い正答率を維持しましたが、他のAIは50%前後でした。ChatGPT-4が51.7%、Claude3.5 Sonnetが48.3%、Gemini Proが43.1%です。FILTER、SORT、UNIQUEなどの動的配列関数は、Excel 365でのみ利用可能な新しい関数であり、AIの学習データに十分含まれていない可能性があります。
[図解: 難易度別正答率の比較グラフ。横軸に難易度レベル1-5、縦軸に正答率をとり、4種類のAIの正答率推移を折れ線グラフで表示]エラーパターンの詳細分析
正答できなかった問題のエラーを分類すると、最も多かったのは「論理エラー」で全エラーの42.7%を占めました。論理エラーとは、構文的には正しいが意図した結果が得られない関数式です。例えば、「売上が100万円以上の顧客を抽出」という要求に対し、「=IF(売上>=1000000,顧客名,””)」と生成されましたが、これは単一セルの判定であり、顧客リスト全体から条件を満たす行を抽出するにはFILTER関数やフィルター機能が必要でした。
第二に多かったエラーは「参照エラー」で28.3%でした。セル範囲の指定ミス、絶対参照と相対参照の混同、シート名の誤記などが含まれます。例えば、「Sheet2!A1:A100」とすべきところを「Sheet2のA1:A100」と生成し、構文エラーになるケースや、コピー時に範囲がずれる相対参照を使うべき箇所で絶対参照($A$1)を使用したケースがありました。
第三は「構文エラー」で19.6%でした。括弧の数が合わない、カンマとセミコロンの使い分けミス、関数名のスペルミスなどです。特に複雑なネスト関数では、開き括弧と閉じ括弧の対応が崩れ、Excelがエラーを返すケースが多発しました。Copilotは構文エラーが最も少なく(12.3%)、Excel統合により構文チェックが強化されていると推測されます。
第四は「機能の誤解」で9.4%でした。例えば、VLOOKUP関数は左端列を検索キーとする制約がありますが、AIは中間列をキーに指定する式を生成しました。また、SUMIF関数の条件指定で、ワイルドカードの使い方を誤る(「*東京*」ではなく「東京*」と指定)ケースもありました。これは関数仕様の理解不足に起因します。
AIごとのエラー傾向も分析しました。ChatGPT-4は論理エラーが多く、複雑な要求を単純化しすぎて不完全な式を生成する傾向がありました。Gemini Proは参照エラーが多く、セル範囲の指定精度が低い傾向でした。Claude3.5 Sonnetは構文エラーと論理エラーがバランスよく分布し、特定の弱点はありませんでした。Copilotは全体的にエラーが少なく、特に構文エラーと参照エラーの発生率が低いことが強みでした。
実務での利用シナリオと効果測定
実務での有用性を検証するため、3社の協力を得て実際の業務でAI生成Excel関数を使用してもらいました。対象企業は、従業員300名の製造業、150名のコンサルティング会社、500名の小売業です。各社で「売上分析」「在庫管理」「勤怠集計」「顧客分析」など、Excelを多用する業務でAIを活用し、作成時間、正確性、ユーザー満足度を測定しました。
関数作成時間は平均で67%短縮されました。従来、複雑な関数式の作成に平均23分かかっていましたが、AI活用により平均7.6分に短縮されました。特にレベル2-3の中程度の複雑さの関数で効果が顕著で、78%の時間短縮を達成しました。レベル1の単純関数は元々作成が容易なため短縮効果は限定的(31%)で、レベル4-5の高度な関数はAIが正答できないケースが多く、人間の修正時間が増えて短縮効果が低下しました(42%)。
作成された関数の正確性も評価しました。AI生成関数をそのまま使用した場合、業務で実際に正しく機能したのは68.3%でした。残り31.7%は何らかの修正が必要でしたが、その大半は軽微な修正(セル範囲の調整、条件値の変更など)で対応可能でした。ゼロから作成するより、AIの生成結果を修正する方が73%速いという結果でした。
ユーザー満足度は5段階評価で平均4.12点でした。「関数の知識がなくても複雑な処理ができるようになった」「試行錯誤の時間が大幅に削減された」という肯定的な意見が多数でした。一方、「AIの生成結果が正しいか判断できない」「間違った関数を信じて使ってしまった」という不安の声もありました。Excel関数の基礎知識がないユーザーは、AIの誤答を見抜けず、誤った結果を業務に使用するリスクがあります。
[図解: AI活用前後の関数作成時間比較。難易度別に、従来の作成時間とAI活用時の作成時間を棒グラフで比較し、短縮率を示す]関数タイプ別の得意・不得意分析
Excel関数を機能別に分類し、AIの得意・不得意を分析しました。最も正答率が高かったのは「集計関数」(SUM、AVERAGE、COUNT、MAX、MIN)で、全AI平均97.2%でした。これらは引数が単純で、エラーの余地が少ないためです。次に正答率が高かったのは「文字列操作関数」(LEFT、RIGHT、MID、CONCATENATE、TEXTJOIN)で、平均89.4%でした。
「検索・参照関数」(VLOOKUP、HLOOKUP、INDEX、MATCH、XLOOKUP)は、正答率が平均74.6%でした。VLOOKUPは比較的高い正答率(82.3%)でしたが、INDEX+MATCH組み合わせは68.7%に低下しました。XLOOKUPはExcel 365の新関数で、AIの学習データに少ない可能性があり、正答率が63.2%と低めでした。
「条件判定関数」(IF、IFS、SWITCH)は、単純な条件判定では91.3%の正答率でしたが、ネストしたIF(IF内にIFを含む)では62.8%に低下しました。3段以上のネストでは、条件の論理構造が複雑になり、AIが誤った論理を生成するケースが増加しました。
「配列関数」(FILTER、SORT、UNIQUE、SEQUENCE)は、正答率が平均58.3%と最も低い分野でした。これらはExcel 365で導入された新しい関数で、従来のExcel関数とは動作原理が異なります。AIは古い学習データに基づいて旧来の方法(フィルター機能やピボットテーブル)を提案する傾向があり、新しい配列関数を適切に活用できないケースが目立ちました。
「日付・時刻関数」(DATE、DATEDIF、EOMONTH、WORKDAY)は、正答率が平均79.4%でした。日付計算の論理は比較的単純ですが、営業日計算や月末処理など、ビジネス固有のロジックを含む場合は精度が低下しました(68.7%)。
AI別の特徴と最適な使い分け
4種類のAIには明確な特徴の違いがありました。Microsoft 365 Copilotは、Excelとの深い統合により最も実用性が高いツールでした。Excel内で直接関数生成を依頼でき、セル範囲をマウスで指定すると自動的に参照に変換される機能が便利です。また、生成された関数が構文エラーを含む場合、Excelが自動的に修正候補を提示する機能も有効でした。総合正答率81.7%は4種類中最高で、特にレベル2-3の実務頻度が高い関数での正答率が優れています。
ChatGPT-4は、複雑な要求の理解力が強みでした。自然言語での説明が曖昧でも、意図を推測して適切な関数を提案する能力が高いです。「前月の売上上位10顧客を抽出して、今月との比較を表示したい」のような複雑な要求を理解し、必要な関数の組み合わせを提案できます。ただし、生成された関数の精度は他のAIに劣る場合があり、修正が必要なケースが多い傾向でした。総合正答率は78.3%でしたが、複雑な業務要件の分析能力では最も優れています。
Claude3.5 Sonnetは、関数の説明が丁寧で教育的な点が特徴でした。生成した関数式の各部分を詳しく説明し、「この部分は検索条件、この部分はエラー処理」と解説してくれます。Excel初心者が関数を学習しながら使う場合に適しています。正答率は76.9%で中程度ですが、説明の質が高く、ユーザーが関数を理解して応用する助けになります。
Google Gemini Proは、Google SheetsとExcelの違いを混同するケースがありました。Google Sheetsの関数名や引数の順序が、Excelと微妙に異なる場合があり(例: VLOOKUP関数の引数順序)、そのままExcelで使用するとエラーになることがありました。正答率73.8%は最も低く、現時点ではExcel関数生成においては他のAIに劣ります。ただし、Google Sheetsユーザーにとっては有用なツールです。
Excel関数生成AIの比較表
| 評価項目 | Microsoft 365 Copilot | ChatGPT-4 | Claude3.5 Sonnet | Google Gemini Pro | 致命的な弱点 |
|---|---|---|---|---|---|
| 総合正答率 | 81.7% | 78.3% | 76.9% | 73.8% | Copilot:なし、ChatGPT:論理エラーの多発、Claude:なし、Gemini:Sheets混同 |
| レベル1正答率 | 98.5% | 97.0% | 96.3% | 95.5% | 全AI:なし |
| レベル2正答率 | 91.5% | 87.3% | 85.9% | 82.4% | Copilot:なし、ChatGPT:なし、Claude:なし、Gemini:VLOOKUP精度 |
| レベル3正答率 | 76.5% | 72.1% | 68.4% | 63.2% | Copilot:なし、ChatGPT:ネスト順序、Claude:複雑性の限界、Gemini:関数組合せ |
| レベル4正答率 | 58.7% | 52.4% | 49.2% | 44.4% | 全AI:複雑関数の論理崩壊 |
| レベル5正答率 | 63.8% | 51.7% | 48.3% | 43.1% | 全AI:配列数式の理解不足 |
| 構文エラー率 | 12.3% | 18.7% | 19.2% | 21.4% | Copilot:なし、ChatGPT:括弧の不一致、Claude:なし、Gemini:カンマ使用誤り |
| 参照エラー率 | 23.1% | 29.3% | 27.8% | 32.6% | Copilot:なし、ChatGPT:範囲指定ミス、Claude:なし、Gemini:シート参照誤り |
| 論理エラー率 | 38.2% | 46.1% | 43.5% | 39.7% | Copilot:複雑条件、ChatGPT:要求の単純化、Claude:なし、Gemini:なし |
| 作成時間短縮率 | 71% | 67% | 64% | 58% | Copilot:なし、ChatGPT:なし、Claude:なし、Gemini:修正時間の増加 |
| Excel統合 | 完全統合 | 外部ツール | 外部ツール | 外部ツール | Copilot:なし、ChatGPT:手動コピー必要、Claude:手動コピー必要、Gemini:手動コピー必要 |
| 説明の丁寧さ | 中程度 | 中程度 | 極めて高い | 中程度 | Copilot:簡潔すぎる、ChatGPT:なし、Claude:なし、Gemini:説明不足 |
| 月額コスト | Microsoft365込み | 20ドル | 20ドル | 無料-20ドル | Copilot:M365必須、ChatGPT:なし、Claude:なし、Gemini:なし |
効果的な使い方とプロンプトのコツ
AI生成Excel関数の正答率を向上させるプロンプトのコツを検証しました。最も効果的だったのは、「具体的なサンプルデータを示す」ことです。「売上データから条件抽出」という抽象的な依頼より、「A列に顧客名、B列に売上金額があり、B列が100万円以上の行のA列を取得したい」と具体的に説明すると、正答率が23.7ポイント向上しました。
第二に効果的だったのは、「Excelのバージョンを明示する」ことです。「Excel 2019を使用」「Excel 365で動的配列が使える」と伝えることで、使用可能な関数が明確になり、適切な関数を選択する精度が向上しました。特にExcel 2019以前のバージョンでは、FILTER、XLOOKUPなどの新関数が使えないため、バージョン情報は重要です。
第三に、「段階的に複雑化する」アプローチが有効でした。最初に単純な関数を生成させ、動作を確認してから、追加の条件やエラー処理を依頼すると、正答率が向上しました。一度に複雑な要求をすると、AIが誤った関数を生成するリスクが高まります。
第四に、「生成結果の検証を依頼する」ことも効果的でした。「この関数式が正しいか確認して」「想定される問題点を指摘して」と追加で質問すると、AI自身が生成結果を再検証し、誤りを修正するケースがありました。特にChatGPT-4とClaude3.5 Sonnetは、自己検証能力が高く、この手法が有効でした。
逆に避けるべきプロンプトパターンも明らかになりました。「複雑な関数を作って」のような曖昧な依頼、業務用語やジャーゴンを説明なしに使用、複数の無関係な要求を同時に依頼、などは正答率を低下させました。明確で具体的な依頼が、AI生成関数の成功率を高める鍵です。
業務効率化の定量評価と投資対効果
AI生成Excel関数の導入による業務効率化効果を定量評価しました。導入企業3社の合計123名のExcelユーザーを対象に、3ヶ月間の時間削減効果を測定しました。関数作成に費やす時間は、導入前が月間平均8.7時間/人でしたが、導入後は3.2時間/人となり、63%削減されました。
123名全体では、月間約677時間の削減となり、時給換算で月間約169万円のコスト削減効果です。年間では約2,030万円の削減効果となります。一方、AI利用のコストは、Microsoft 365 Copilotが既存のMicrosoft 365ライセンスに含まれる場合は追加コストなし、ChatGPT-4を使用する場合でも月額20ドル×123名=月額約36万円(年間約432万円)です。
投資対効果は、Copilot利用で追加コストゼロなら無限大、ChatGPT-4利用でも年間約1,600万円の純削減効果となり、極めて高いROIが実証されました。さらに、関数作成の心理的ハードルが下がり、これまでExcel活用を躊躇していた業務でも活用が進み、業務の質的向上も報告されました。
ただし、導入初期は教育コストが発生します。AIの適切な使い方、生成結果の検証方法、Excel基礎知識の習得など、約2時間/人の研修が必要でした。また、誤った関数を見抜けず業務に支障が出た事例も3件報告され、リスク管理の重要性が確認されました。重要な業務では、AI生成関数を必ず人間が検証するルールの徹底が不可欠です。
今後の技術進化と期待される機能
Excel関数生成AIは急速に進化しており、今後1-2年で大幅な精度向上が期待されます。最も注目される進化は、Excelファイル全体の文脈理解です。現在のAIは単一の関数式を生成しますが、将来的にはシート構造、データの意味、他の関数との関連を理解し、ワークブック全体で最適化された関数群を生成できるようになります。
第二に、リアルタイムエラー検出と修正提案の機能強化です。ユーザーが関数を入力している最中に、AIがエラーを検出して修正案を提示する機能が実装されつつあります。Microsoft 365 Copilotは既にこの方向で開発が進んでおり、2026年中に実用化される見込みです。
第三に、自然言語でのセル操作です。「売上列の平均を計算してD2に表示」と依頼すると、関数を生成するだけでなく、実際にセルに入力まで完了する機能です。検証に参加した1社では、音声入力でExcel操作する実験も開始しており、「今月の売上合計を教えて」と音声で依頼すると、AIが自動的に関数を生成・実行して結果を音声で返答するシステムを試験運用しています。
また、業界特化型のファインチューニングも進んでいます。会計、人事、製造など、業界特有のExcel関数パターンを学習させたAIモデルが開発されれば、業界固有の計算ロジックを正確に実装できるようになります。
推奨される導入シナリオと注意点
Excel関数生成AIの導入を推奨できる条件は、第一にExcel業務の頻度が高い組織です。週に3回以上Excelで関数を使用するユーザーが10名以上いる場合、導入効果が大きくなります。第二に、レベル2-3の中程度の複雑さの関数を頻繁に使用する業務です。AIの正答率が高く、時間削減効果が最も顕著な領域です。
サービス選択の基準としては、Microsoft 365を既に導入している企業はCopilotが最適です。追加コストなしで利用でき、Excel統合により使い勝手が優れています。Microsoft 365未導入の場合は、ChatGPT-4またはClaude3.5 Sonnetが推奨されます。ChatGPT-4は複雑な要求の理解力が高く、Claude3.5 Sonnetは学習目的で使用する場合に適しています。
導入時の注意点として、Excel基礎知識の習得は不可欠です。AIが生成した関数の正誤を判断するには、最低限のExcel知識が必要です。全くの初心者がAIに全面依存すると、誤った関数を業務に使用するリスクがあります。基礎研修とAI活用研修をセットで実施することを推奨します。
また、重要な業務データを扱う場合は、AI生成関数を必ず人間が検証するルールを徹底すべきです。財務報告、給与計算、在庫管理など、誤りが重大な影響を及ぼす業務では、ダブルチェック体制が不可欠です。AI生成関数は「たたき台」として活用し、最終確認は人間が行う運用が安全です。
まとめ:Excel関数生成AIの実用性評価
本検証により、Excel関数生成AIは総合正答率73.8-81.7%で、実務での活用に十分な精度に達していることが実証されました。特にレベル1-3の基本から中級レベルの関数では、正答率が85%以上と高く、業務時間を63-71%削減する効果があります。
Microsoft 365 Copilotは、Excel統合と高い正答率により最も実用的なツールです。ChatGPT-4は複雑な要求の理解力が強みで、Claude3.5 Sonnetは学習支援に適しています。いずれのAIも、適切なプロンプトと人間による検証を組み合わせることで、Excelの生産性を大幅に向上させることができます。
ただし、レベル4-5の高度な関数や配列数式では正答率が50%前後に低下し、AIの限界も明確です。複雑な業務ロジックを実装する場合は、Excelマクロ(VBA)やPythonなど、他の自動化手段も検討すべきです。Excel関数生成AIは、基本から中級レベルの関数作成を劇的に効率化する強力なツールとして、積極的な導入を推奨できます。
著者: 生成AI総合研究所編集部
最終更新: 2026年1月18日
生成AI、結局どう使う?を解決する
現場のための「導入・活用実践ガイド」
「何から始めるべきか分からない」悩みを解消。ビジネスの現場で明日から使えるチェックリストと選定基準をまとめました。
- 失敗しない「ツール選定比較表」
- 非専門家でもわかる「活用ステップ」
- 最低限知っておくべき「安全ルール」
- 現場が納得する「導入の進め方」
BUSINESS GUIDE