“AIで作った音声電話”は「違法」 米国FCCの声明が物議を呼んでいる訳:弁護士やアナリストが警鐘
AI技術で音声を生成したロボコール(自動音声電話)は違法だと、米連邦通信委員会(FCC)が声明を発表。予備選挙に先立ち、ジョー・バイデン大領領を装う電話を防ぐ狙いがあるが、企業にも余波が広がっている。
米連邦通信委員会(FCC)は2024年2月8日(現地時間)、人工知能(AI)技術を用いて音声を生成したロボコール(自動音声電話)を違法と見なすと発表した。この見解は、ニューハンプシャー州の予備選挙に先立ち、AI技術を使用したロボコールが引き起こした懸念を踏まえたものだ。例えば、ジョー・バイデン大領領の声を装って有権者に電話をかけ、投票しないように呼び掛ける事例が起きている。
しかし「声明の解釈によっては、企業が法的な異議申し立てを受ける可能性がある」と、法律事務所ホール・エスティルのアーロン・ティフト氏は指摘する。
「誠実な企業」でも責任を問われる可能性 なぜ?
AI技術で作られるロボコールを、FCCが禁止したのは驚くべきことではない。しかしFCCの声明の文言が広義なので、テキストメッセージなど音声通話以外でのAIの使用について明確に定義できていないことをティフト氏は危惧している。「顧客や受信者へのメッセージを作成するために何らかの技術を使用したことの責任を、誠実な企業に対しても追及されかねないのではないかと懸念している」(同氏)
FCCは声明の中で、テレマーケティングを規制する「電話消費者保護法」(Telephone Consumer Protection Act:TCPA)を引用し、AI技術を用いた通話は「人工的」であり、違法であるとした。
FCC委員長のジェシカ・ローゼンウォーセル氏は、悪意のある者たちがAI技術で生成した音声をロボコールに使用し、誰かを恐喝したり、有名人を装ったり、有権者に誤った情報を伝えたりしていると指摘。「これらのロボコールの背後にいる詐欺師に警告を発している」と主張している。
今回の声明により、AI技術のロボコールを悪用した詐欺を取り締まりやすくなると考えられる。これまで各州はロボコールに起因する悪事を対象として取り締まっていたが、今後は“ロボコールで音声を生成する際にAI技術を使う行為”を違法とみなし、州の法執行機関が加害者の責任を問えるという旨の記載があるためだ。
こうした状況を受け、ティフト氏は顧客企業に対し、全てのマーケティングコミュニケーションについて、書面による同意を確実に取得するよう推奨しているという。
調査会社Gartnerのアナリストであるアビバ・リタン氏は、今回の措置は、AI技術で生成するロボコールを使用している、もしくは検討している企業に大きな影響を与える可能性があると指摘する。
「企業のマーケティング部門がマーケティングだけでなくカスタマーサービスなど、あらゆることにロボコールを使用していることは周知の事実であり、多大な影響がある。これからは、顧客から明示的な同意が得られない限り、ロボコールの使用は許可されない」とリタン氏は述べる。
TechTarget発 世界のITニュース
新製品・新サービスや調査結果、セキュリティインシデントなど、米国TechTargetが発信する世界のITニュースをタイムリーにお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.