AIは、どう仕事を置き換えていくのか? (1) これまでの情報化との違い
[chat face=”azatooth.jpg” name=”アザト君” align=”right” border=”gray” bg=”none” style=”maru”]これから、どんどんAIの導入が進むのは分かるけど、これまでだって、コンピュータは沢山入ってきていた。情報化なんて、昭和の話だ。今回のAIはどこが違うのか、いまいち頭に入ってこない[/chat]
[chat face=”frogface.jpg” name=”カワダさん” align=”left” border=”blue” bg=”green” style=”maru”]実は企業の中の人も、そのあたりをうまく分別できていない人の方が多い。よく大手金融機関や流通業で、これから人が減るという話がされているが、よくよく聞いてみると、AI以前の、いわゆる昭和の情報化に近い話も結構多い。なんでもAIのせいにするのはAIに申し訳ないように思える(笑)[/chat]
[chat face=”frogface.jpg” name=”カワダさん” align=”left” border=”blue” bg=”green” style=”maru”]
今回のAI技術の進展と過去のIT技術(いわゆるコンピュータ)との相違を単純化して説明すると、計算(コンピュータ)対学習(AI)といった構図になる。
電卓を含めれば1970年代から急速に発展したコンピュータは、大量の計算を迅速に行うものであり、それまでのソロバンを実商売においては、完全に置き換えた。
コンピュータの導入以前、勘定や計算といった業務そのものに大きな人件費がかけられていた。例えば証券会社を例にとると、売買注文の件数が2倍になれば各種計算の量も2倍になり、そのために追加で人員を手当てする必要があった。つまり、計算は目に見えるコスト、変動費として増加するものだった。
当然、投資予測や採算性評価といったシミュレーションは、計算資源(この場合は人手)を馬鹿食いする贅沢な業務でもあった。現在、投資相談で店頭を訪れると、情報システムによって、資産に対して複数のシミュレーションが行われ、平均的なケース、順調なケースなど、様々なシミュレーションが提示されるが、これは、それぞれのケースを作成するための計算コストが、大規模なコンピュータ化によって、実質的に追加計算コストゼロ(厳密には情報システムの初期投資があるが)だから、実現可能なのである。
昔のように、一件、一件、人手で計算していれば、店頭でそれぞれのケース別に人を1人ずつ割り当てる必要があり、膨大なコストとなるはずであった。
実際、企業における事業収支の計算に際して、前年比5%伸びといった幾何級数をケース別に複数算定するのは、人手だけなら膨大な計算負担が必要となる。昭和の中盤まで、企業が事業計画を策定する場合、若手社員が計算専任で1カ月従事といった働き方も、それほど珍しい話ではなかったとされている。
繰り返しになるが、コンピュータは計算コストを実質的にゼロにすることで、ビジネスを劇的に変化させた。
職業視点で見ると、店頭の営業アシスタントは計算に追われる仕事から、より広い営業のアシスト、チェック、更には店頭での対顧客、直接営業活動に時間を振り向けるようになった。
[/chat]
[chat face=”frogface.jpg” name=”カワダさん” align=”left” border=”blue” bg=”green” style=”maru”]
一方、今回のAIは、深層学習という技術アプローチで、これまでは、不可能とされていた大きなブレイクスルーが期待されている。その最終的な期待は、入力データ(こうすれば)と出力データ(その結果、こうなる)を、組み合わせた学習データを、AIに入力(学習)させることで、ブラックボックスとしての自動的な判断、操縦のプログラムを生成することが可能となるのでは?と目されていることである。
ポイントは、中身やロジック、ルールを見た目上、すっ飛ばして、直接、ブラックボックスを生成できることへの期待だ。
もちろん、すべての分野で今すぐ可能といった話ではないが、画像認識や自動運転などの分野では、ほぼ、これに近い効果が期待できるというのがコンセンサスとなっている。
AIの専門家は、理論としての深層学習を高度化する一方、今も続く半導体の性能改善(3年で2~4倍、処理性能が向上し、コストパフォーマンスも高まる)が続けば、たとえば、最初は稚拙な認識であっても、近い将来、人間を超える判断、操縦が、経済的なコストの枠内でするという展望を共有している。
この段階では、計算のコストが実質ゼロになったことと同じように、判断・認識のコストが見かけ上はゼロに近づく。これによって、無人店舗や自動運転だけでなく、より広範囲の労働、作業を自動化できる可能性があると見ている。期待しているのは、深層学習のような劇的なブレイクスルーが、今後も次々と生まれるというのではなく、深層学習のフレームワークが、半導体の性能向上、コストパフォーマンス改善によって、エスカレータに乗っているかのように、現在よりも、劇的に高い水準のサービスを、高い確度で実現できるのではないか?というところにある。[/chat]