パンとがん細胞の共通点は? – 代表チーム

1 min read

コンピュータビジョンは、特に認識と識別に関して視覚的な入力から意味のある情報を導出することを目的とした人工知能(AI)の分野です。 この視覚的入力が使用される方法の例には、画像分類、オブジェクト検出、オブジェクト追跡、およびコンテンツベースの画像検索が含まれる。

1つのカテゴリオブジェクトのさまざまなバリエーションを区別することは、ベーカリーと病院の間の相互問題です。 例えば、ペストリーの種類を区別し、正常細胞の中で癌細胞を検出するために、驚くべきことに同じシステムが必要です。

ディープラーニングと和菓子問題

2012年、トロント大学のコンピュータサイエンス大学院生であるAlex Krizhevskyと彼のチームは、AlexNetというニューラルネットワークモデルを作成しました。 このモデルは、画像をさまざまなオブジェクトカテゴリに分類するためにディープラーニングと呼ばれる技術を使用しました。 AlexNetのようなニューラルネットワークの層は、異なるレベルが異なる機能を果たすという点で、人間の視覚皮質に似ています。

ディープラーニングの1つの欠点は、多くのサンプルデータが必要であることである。 これらのコンピュータにはあまりにも多くの画像しか提供できず、これらの画像が参照対象の円形で制御された状態を示すことがよくあります。 この段階的な完璧さから逸脱すると、時には対象を認識できなくなり、新しい別個の対象に分類されます。 ドーナツを定義する機能のアイデアを得るには、何千ものドーナツを表示する必要があります。

これは特に問題です 自動計算システムを使用したい日本のパン屋のため。 日本のパン屋さんは範囲を優先します。 パンは常に日本から輸入されており、日本の豊かな貿易歴史は消費者に多様性の好みを残しました。 ほぼ数百の様々な種類の様々なペーストリーが常に発明されている。

新しいベーカリーベンチャー企業のアナリストは、市場調査を行った結果、より多くの種類を提供するベーカリーがより多く販売され、未包装のペストリーが個々の包装されたペストリーよりも売れていることを発見しました。 これらの2つの条件(包装なしでさまざまなペストリーを販売し、同時に衛生的かつ迅速にチェックアウト)に対応するために、ベーカリーベンチャー企業は自動チェックアウトを統合したいと考えました。 しかし、バーコードなしで動作する自動計算システムは何ですか?

コンピュータがオブジェクトを区別したりシーンを分析したりするときに、人間の視覚などの感度を達成するのが難しい理由の1つは、経験的および空間的文脈が不足しているためです。 人間は、さまざまな照明条件で物事がどのように見えるか、影が落ちる方法、さまざまなテクスチャがどのように見えるかについて、生涯にわたって状況に合った教育を受けます。

以前に見たことがない場合でも、特定の対象のカテゴリをすばやく推論するコンテキストのレパートリーがあります。 たとえば、以前に見たことのないタイプのドーナツであっても、ドーナツを認識できます。 一日の異なる時間に異なる状況でガラスを見たので、ガラスが反射することを知っています。 このような状況的コンテキストは、オブジェクトが他の条件または他のバリエーションでどのように現れるかを複雑にし、コンピュータはこれを限定的に理解する。

かんべひさしとお菓子AI

神戸久がBRAIN設立 Co.、Ltd.は、後にパナソニックになった松下電器工事で長年勤務して1982年に設立されました。

2007年に前述したベーカリーベンチャー企業がBRAINにアプローチしました。 2008年の金融危機の中断 他のプロジェクトとKambeは、ベーカリーのペストリープロジェクトに会社を歩いた。 同社は2年間で10のアルゴリズムプロトタイプを開発しました。 異なるアルゴリズムを組み合わせて書き換えることで プロトタイプを通じて、彼らは50種類のパンにわたって98%の精度を持つシステムを達成しました。

問題は、このシステムが完全に制御された条件でのみテストされたことです。 一方、ベーカリーでは のシステムは、照明条件が異なり、デバイス上のアイテムがランダムに配置され、1日の異なる時間に動作する必要がありました。

ドーナツ穴を横切るドーナツの影を含むペストリーによってドリルされた影を除去するためにバックライトが使用された。 これにより、スキャナーはアイテムを穴なしペーストリーに読み取ることができます。 Kambeのチームは、ベーキング時間とペストリーの色を関連付ける数学モデルまで開発しました。

2013年までに、Kambeのチームは逆光でペストリーの写真を撮り、特徴と輪郭を分析し、さまざまなペストリーを互いに区別する装置を作る前にパンに5年を投資しました。 彼らはそれをBakeryScanと呼んだ。 これは、ディープラーニング技術を使用するシステムとは異なる手動チューニングシステムです。 いつ BakeryScanをディープラーニング技術を使用したディープニューラルネットワークに置き換えようとしましたが、ネットワークシステムはBakeryScanと同じくらい効果的にペストリーを認識しましたが、何千ものトレーニング例が必要でした。 これは毎週新しいペストリータイプを紹介する日本のパン屋さんの問題です。 しかし、BakeryScanは90%の精度でわずか5サンプルの後に新しいペストリーを認識することができ、20サンプル後にはほぼ完璧です。

の一つ の最大の顧客であるAndersen Bakeryは、何百ものパン屋にこのシステムを展開しました。 それだけ チームは、オペレーター用の物理BakeryScanシステムにフィードバックメカニズムを組み込んでいます。 システムは、ペストリーの識別に自分自身がない場合、緑の代わりに黄色または赤で点灯します。 次いで、システムは、オペレータに最良の推測のための短い選択で指定するように要求する。 このように、BakeryScanはより高いレベルの精度を学習し、徐々に達成します。

パン屋から病院まで

2017年、京都ルイ・パスツール医学研究センターのある医師は、BakeryScanが識別したパンが顕微鏡で見ると、がん細胞のように見えることを発見しました。 医者が手を差し出した。 結局、会社はBakeryScanの病理学中心のプロトタイプの研究開発を始めました。

2018年に札幌で開かれたがん細胞のAI識別に関する会議で、Kambeはディープラーニングにどれだけのデータが必要なため、特定の作業にはまだ実用的ではないと主張しました。

2021年にBakeryScanのプロトタイプは現在Cyto-Aiというがん細胞を感知するように用途が変更されました。注射、神戸と京都にある2つの主要病院でテストを受けていました。 それは顕微鏡スライド全体を見て潜在的な癌細胞を識別することを可能にしました。

2021年11月、ニューヨークに拠点を置く作家でプログラマーのJames Somersは、Cyto-Aiがどのように機能するかを実演したKambeにインタビューしました。注射 4期がん患者のサンプルからがん細胞候補を表示します。 斎藤愛注射 がん細胞検出で99%の精度で作業していました。 SomersはKambeに、モデルがどのように成功したのか、ディープラーニングを使用したのか尋ね、Kambeは笑顔で「Original way, same as bread」と語った。

READ  スピノサウルスは泳ぐ恐竜でしたか? たぶんそうではないかもしれないと研究は言います。
Omori Yoshiaki

ミュージックホリック。フードエバンジェリスト。学生。認定エクスプローラー。受賞歴のあるウェブエキスパート。」

You May Also Like

More From Author

+ There are no comments

Add yours