検索
特集/連載

「AIで内製すれば安くなる」は半分しか正しくない製造業のAI活用に2つリスク

生成AIの普及により、企業がソフトウェアを内製化しコスト削減を実現する動きが広がっている。一方製造業でその動きをそのまま当てはめると様々な問題が発生する可能性がある。問題と対策を整理する。

Share
Tweet
LINE
Hatena

 生成AI(AI:人工知能)の普及により、「ソフトウェアは自社で作るもの」と考えるユーザーは増加しつつある。実際、生成AIを使って開発したシステムのおかげで、数十万ドル規模のコスト削減を実現した企業もある。ただし、この取り組みは製造業の企業においては注意が必要だ。本稿は、製造業における生成AIの活用で生じる2つの問題とその対策を紹介する。

システム構築コストは「ほぼゼロ」

 バッテリー材料メーカーSila Nanotechnologiesの製造設計・実装マネジャー、ムーリダラン・バラル氏は、サードパーティー製の製造スケジューリングツールに課題があると判断し、生成AIを活用して数カ月で独自のスケジューラーを構築した。

 これにより同社は、設備の稼働状況や保守予定、材料在庫、保管容量を自動で確認できるようになった。同社はさらに、売上原価を追跡するシナリオプランニングモデルなども開発している。こうした取り組みにより、Sila Nanotechnologiesは2年間で数十万ドル規模のソフトウェアコスト削減を実現した。バラル氏によると、システム構築コストは「ほぼゼロに近づいている」。

 こうした動きは、従来のパッケージソフト前提のIT戦略を揺るがすものだ。一方、こうした動きを製造業に適用した場合問題が生じる恐れがある。AIを組み込んだシステムが停止すれば、そのまま生産ラインも停止する。効率化の裏側で、「システムが止まったときの責任」という新たな論点が浮上している。

「AIで内製すれば安くなる」は半分しか正しくない

 生成AIを使うことでシステムの開発コストを下げることは可能だ。しかし製造業では「システムを絶対に止められない」という制約がある。一般的な業務システムと違い、製造ラインは停止すれば即損失となる。

 そのため重要なのは「システムを作れるか」ではなく「システムの内容を説明できるか」だ。Rockwell Automationのオースティン・ロック氏(データサイエンス・AIプリンシパル兼グローバルリード)によると、ブラックボックス化したAIが意思決定を進めることに、製造現場は強い抵抗を示すという。特に品質や安全に直結する領域では、「なぜその判断をしたのか」を説明できないシステムは受け入れられない。

HPCとAIの違いが「責任の所在」を変える

 製造業の企業の中には、HPC(高性能コンピューティング)を活用してきたところがある。HPCを使えば、物理シミュレーションに基づいて、「なぜその結果になるのか」を説明可能だ。

 一方AIは、過去のデータから最適解を導く仕組みであり、必ずしも現実の因果関係と一致しない。つまり、AIは「自然から一段離れた存在」である。

 この構造を理解せずにAIを組み込むと、「原因不明の意思決定」が現場に入り込む恐れがある。

製造現場で生成AIを使うには

 Geminus AIはSchneider ElectricやRockwell Automationなどの既存の産業用制御システムの上に配置するインテリジェンスレイヤーを開発している。同社CEO、グレッグ・ファロン氏によると、このプラットフォームは、生成AIを用いて運用データを取り込み、プロセス性能を向上させるための具体的な制御設定を出力する。HPCや物理ベースのシミュレーションに依存する製造現場では、「物理情報を取り入れた」AIモデルを活用し、継続的かつリアルタイムで制御判断を行うことで既存システムを補完する。

 このプロセスは自律的に運用するが、その判断は現場の人間に委ねられるとファロン氏は指摘する。「自律的なバックアップ体制が整っていないため、人間を介在させたい企業もある。一方で、完全な自律運用に十分な安心感を持つ企業もある」(ファロン氏)

 生成AIを組み込んだツールは、製造のスピードと効率の向上にも寄与する。CADDiのクリス・コープ氏(エンジニアリング担当バイスプレジデント)は、「エンジニアは情報を活用するよりも、探すことに多くの時間を費やしている」と指摘する。同社のツールは、図面やスプレッドシート、サプライヤーシステムに保存されたデータを一元化する設計となっている。

 さらに、デジタル製造プラットフォームを提供するFictivのネイサン・エバンス氏(共同創業者)は、「生成AIはエンジニアから知識や意図を抽出する能力に優れている」と述べる。このような文脈情報は極めて重要である。バラル氏は、生成AIは「思考のスピード」で開発を進められる一方で、「人間からの文脈がなければ破綻する」と指摘している。

特許とログが「証拠」になる時代

 もう1つのリスクが、特許の問題だ。生成AIは単なる補助ツールではなく、「答えそのもの」を提示する段階に入っている。つまり、AIが設計した内容がそのまま発明とみなされる可能性がある。

 問題は、特許の申請時に「誰が発明者か」を説明する義務がある点だ。もしAIの関与を隠して人間が発明したと申告した場合、後にログや履歴が証拠として発見されれば、権利そのものが無効になるリスクがある。

 米国の著作権法においては、機械は発明者と認められておらず、人間でなければ特許の取得はできない。「では誰が発明者になるのかを考える必要がある」。弁護士法人Foley & LardnerのパートナーでAI・自動化・ロボティクスグループの共同議長であるシャビー・カーン氏はこう指摘する。

 大規模言語モデル(LLM)はアイデア生成やコンテンツ作成のツールと見なされてきた。しかし、「今やLLMが答えを出せば、それは発明そのものだ」とカーン氏は話す。「LLMが生成したアイデアやコンテンツを『人間が発明した』と主張することは可能だ。しかし、その申請に虚偽があったことが明らかになった場合、企業は重大な法的リスクを負う。発明の着想に関する全文書提出が求められる場面で本当の発明者が明らかになり、LLMの使用履歴が見つかれば大問題だ」

 では、そのような事態を避けるために企業はどうすればいいのか。カーン氏は、「AIの出力はアイデアやコンテンツの素材と見なすこと」と話す。「素材に修正を加え、実験し、改良して完成させる」という考え方だ。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る