日本のAIががん患者の声を真似る

東京の会社が国民の注目を集めている理由 同社が開発したAI 声を失ったがん患者は、以前と同じようにコミュニケーションをとることができます。

CoeFont 社が開発した AI は、次の手術の前に患者のピッチ、アクセント、話すリズムを記録するため、患者が入力したテキストを原文に忠実に再現できます。

映像制作者から医療用まで

この AI はもともと、YouTube の文章を読み上げたり、話し手や声優の声をまねたりするなど、動画制作者を対象としていました。

CoeFont の会長である早川昭吾氏は、気管がんの手術で声帯を失った 67 歳のがん患者と接触するまで、AI の医学的可能性を認識していませんでした。

彼女のように、がんの手術で声を失い、食道や特殊な機械を使って話す方法を苦労して再学習しなければならない患者が、日本には約 2 万人から 3 万人います。

スマートフォンによるコミュニケーション

手術の 8 日前、この 67 歳の女性は AI に約 700 の文章を読ませて、自分の声をリアルに生成して再現できるようにしなければなりませんでした。

手術直後、彼女は初めて AI を使用し、スマートフォンに文章を入力してスピーカーで再生することで看護師と会話することができました。

シームレスな言葉の連続により、AI が人工的に生成した音声であることを意識せず、自然な会話が可能です。

タイピングの代わりに唇の動き?

CoeFont は、無料サービスに対してすでに 100 人以上の患者からのリクエストを受けています。

スマートフォンを介してフレーズを入力する必要がありますが、このサービスは簡単に学習でき、誰でも自分の声で話し続けることができます。

今後、AIはさらに進化していきます。 いつの日か、テキストを入力しなくても AI が患者の唇の動きだけで情報を取得できるようになるかもしれません。

Furutani Yasushi

"Pop culture fan. Proud creator. General web researcher. Food advocate. TV junkie. Lifelong alcohol nerd. Want to be an introvert. Hipster beer fanatic."

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です