ページの先頭です。 メニューを飛ばして本文へ
トップページ > 学科・組織別メニュー > 情報システム技術科 > コラム:情報システム技術科で画像センサー?(1)

コラム:情報システム技術科で画像センサー?(1)

印刷用ページを表示する 掲載日:2017年4月18日更新

コラム:情報システム技術科で画像センサー?(1)

 本校の情報システム技術科の特徴は、コンピュータシステムの構成要素である半導体デバイス,ネットワーク,データベース,プログラムを4本柱として学んでいくことにあります。中でも半導体デバイスではCCD(シー・シー・ディー)やCMOS(シーモス)イメージセンサーとよばれる画像センサーに多くの時間を割いています。また画像センサーの原理や動作を理解するために必要な物理現象、たとえば力学,光学,電磁気学,電気回路,半導体工学の勉強もします。

 先日テレビを見ていたら、画像センサー✕AI(人工知能)という興味深い特集をやっていました。古生代のカンブリア紀に起こった「カンブリア紀の大爆発」と呼ばれる無脊椎動物の多様化のごとく、画像センサーとAI(人工知能)を組み合わせることでロボットが爆発的な多様化をするという話でした。情報システム技術科で画像センサーの勉強をすることの意義を改めて見つめ直す良い機会にもなりました。それでは、番組の内容を紹介していきます。

 番組は画像センサーの説明から始まりました。画像センサーとは、レンズから入ってくる光を電気信号に変える半導体で、私たちが普段使用しているデジカメ,スマホ,ビデオカメラといった民生用カメラから、放送用カメラや監視カメラ、胃カメラなどの医療分野、複合機やバーコードリーダーといった事務機まで、様々な分野の機器に使われています。最近のデジカメは、1秒間に約1000枚の写真が撮れたりするし、可視光より外側の波長領域である赤外線や紫外線を映し出せるものも出てきました。X線を映し出す研究も進められているなど、人間の目をはるかに超えるものが製品化されたり研究されたりしています。また、明るいところで暗いものを見ようとすると、人間の目は瞳孔を閉じて暗いものに合わせてしまうが、明るいところから暗いところまですべからく撮影できる(ダイナミックレンジの広い)画像センサーも製品化されている、といった説明がなされていました。

 番組はAI(人工知能)の説明へと続きます。デジカメの構造を人間の目に当てはめてみると、レンズは水晶体、絞りは虹彩(こうさい)、画像センサーは網膜に当たり、人工知能は脳の視覚野に相当するそうです。人間のいわゆる“見える”という状態は、水晶体を通して目の中に入った光が網膜上で結像し、網膜によって光から変換された電気信号が神経細胞を伝わって視覚野に届き、視覚野が画像として認識するということであり、画像センサーだけ、AI(人工知能)だけではいわゆる“見える”という状態にはならないようです。画像センサーによって光から変換された電気信号を“見える”という状態まで加工していく長い工程を、ディープラーニング(深層学習)と呼ばれるAI(人工知能)技術を利用すると、ロボットが“見える”という状態になるというのです。

 ディープラーニング(深層学習)とは、人間の脳の神経回路と同様のネットワーク構造をつくることでコンピュータに特徴抽出能力を持たせる手法です。この技術は2012年頃から急速に伸びて来たそうで、囲碁の世界でAI(人工知能)がトッププロとの五番勝負で四勝一敗と完勝したというニュースは記憶に新しいところです。このときAI(人工知能)は盤面を画像として認識し、この辺りは黒が強いとか、この辺りは白が危ないなどと考えているそうです。また、これまで長い間コンピュータが苦手としていた、画像に猫が映っているであるとか、映っている犬が何という種類の犬なのかなどを見分ける精度が人間を超えるといったことがすでに昨年には現実となっているそうです。

 さて、画像センサーとAI(人工知能)が組み合わさると何が起こるのでしょうか。「情報システム技術科で画像センサー?(2)」に続きます。