ウェブ未来論:第2回

「ウェブ未来論」はNTT出版Webマガジンに掲載されています。最新の記事はこちらから。

アーキテクチャ

ウェブにおけるコミュニケーションの変容を考えるにあたっては、社会学的な視点、心理学的な視点など、多様な立場がありうる。この連載では、おもに技術と人間との関わりからこの問題に取り組もうと考えているが、その際のキーワードとして、「アーキテクチャ」という言葉について触れておきたい。

アーキテクチャ」にはさまざまな意味が含まれている。goo辞書を引くと、
(1)建築。建築学。建築様式。構造。
(2)コンピューターを機能面から見たときの構成方式。…(後略)
とある。建築とコンピュータとでは歴史の長さが違うので、もちろんコンピュータにおけるアーキテクチャとは建築のアナロジーに過ぎないわけだが、いずれにせよ何らかの工学的な「ありかた」を示している。

数年前、アーキテクチャという言葉が工学以外の分野で注目された。スタンフォード大学の法学者であるローレンス・レッシグは、著書「Code and Other Laws of Cyberspace」(邦訳「CODE―インターネットの合法・違法・プライバシー」)にて、人々の行動を規制するものとして、法・慣習・市場に加えてアーキテクチャを挙げた。この議論におけるアーキテクチャは上で述べた工学的な定義に留まらない。人間にとっては外部環境となる人工物、あるいは自然の「しくみ」がこれにあたる。「しくみ」という言葉に人為的な響きが感じられるならば「つくり」でもいい。その「つくり」には時間や空間そのものが持っている性質(遠いところに行くためには時間がかかる、など)までもが含まれている。

現実の世界では、法・慣習・市場・アーキテクチャの4つの要素は相互に影響を与え合っており、そのうちのどれか1つが強くなるという事態は抑制されている。しかしながら、レッシグは、サイバースペース、具体的にはインターネット上では、アーキテクチャによるコントロールの力が圧倒的に強くなっていると主張する。また、インターネットのアーキテクチャには自然の制約がほとんど存在せず、あらゆる性質を人為的に生み出すことができると指摘している。
すなわち、インターネットが持っている性質とは、設計者の思想がそのまま反映されたものである。ここでは思想そのものについての善し悪しについては議論しないが※、ウェブならびにウェブのインフラであるインターネットが作り出すコミュニケーション様式の特性を見るために、その思想について知ることは有益であると思われる。

※「CODE」では、現状のインターネットが持つ性質を未来に渡って守るために、設計者に対する法・慣習・市場を介した外部からのコントロールをいかに排除するかについて議論がなされている。

インターネットのアーキテクチャ

インターネットはコミュニケーションを目的として作られたものではないが、結果的に見れば全世界的なコミュニケーションを実現するためのアーキテクチャとして適切なものであったと言える。インターネットには、それまでの情報通信ネットワークには見られなかった分散性とエンド・ツー・エンド原理を兼ね備えていたからである。

インターネットの前身であるARPANETは、1960年代後半にアメリカ国防総省の研究・開発部門である高等研究計画局(略称ARPA、現在はDARPAに改称)によって構築された。ARPANETは、各地に点在するコンピュータのそれぞれにデータを配置し、それらを網の目のように接続して、どのコンピュータからでもすべてのデータにアクセスできるようにする分散型のシステムである。

通常、複数のコンピュータを相互に接続する場合には、1台の中央コンピュータを用意し、これに対して残りのすべてコンピュータが接続するという中央集権型の構成が選ばれる。中央集権型のシステムはシンプルで効率がよく、すべてのデータを中央コンピュータに集めることで、データの管理も容易になる。逆に、分散型システムではすべてのことが複雑になる。

例えば、網の目構造では、あるコンピュータから他のコンピュータへのアクセス経路が複数ある。あらゆる通信について、経路を効率的に制御することは非常に難しい。また、経路のどこかでエラーが発生した場合に、それをどのように感知し、通信をやり直すのかといった問題もある。これらを、すべての状況を把握する中央コンピュータの存在なしで解決しなければならないのである。

ARPANET、そしてその後のインターネットでは、通信方法としてTCP/IPを採用し、分散型システムを実現した。TCP/IPは、ネットワーク上のすべてのコンピュータに住所(IPアドレス)を付与し、住所に基づいて情報の転送を行うしくみを定義したIP(Internet Protocol)と、IPアドレスを持つ2つのコンピュータ間での情報の受け渡しの手順やエラーへの対応方法を定義したTCP(Transmission Control Protocol)からなる。TCP/IPによる通信では、本来送るべき情報をパケットと呼ばれる細かい単位に分割し、1つ1つのパケットについて送信元ならびに相手のアドレス、そのパケットを元の情報に戻すための順序情報など、さまざまな付加情報をつけたうえでネットワーク上に流す。経路上にあるコンピュータは、パケットの付加情報を読み取って目的地に近いと思われる別のコンピュータに情報を転送する。こういったバケツリレーのような手順を数回繰り返すことで、最終的にパケットは相手に届き、順序に従って組み立て直される。

TCP/IPによる通信では、途中のコンピュータが次に送るべき相手を判断するための時間がかかるとともに、何回リレーを行えば目的地に到達できるかが事前に予測できない。また、情報をパケットに分割するのは、エラーが発生した際に再送信すべき情報量を少なくするためであるが、パケットごとの付加情報が相対的に大きくなる。そのため、中央集権型システムと比較すると、効率や信頼性に問題があると言わざるを得ない。分散型システムという言葉には理想的な響きがするが、時代背景を考えると到底コストに見合うものではなかったはずである。

それでもARPANETが分散型システムでなければならなかった理由は、それが軍事目的のネットワークであったからである。中央集権型システムでは、中央コンピュータが攻撃されるとすべての機能が停止してしまう。これに対して、分散型システムでは、一部に破壊や故障があったとしても全体としての最低限の機能は維持される。そのために、効率や信頼性と引き替えに、分散性が重要視されたのである。

それでは、軍事目的ではなくなったインターネットには、本質的に分散性は必要がないものなのだろうか。効率や信頼性を高めるために、アーキテクチャを変えるという選択肢はあるのだろうか。

実のところ、分散性がなければインターネットはこれほどの規模に成長することはなかったと思われる。ARPANETの時代には顕在化していなかったかもしれないが、中央集権型システムには別の問題があった。それは、ネットワークの規模が中央コンピュータの性能に比例するということである。中央集権型システムでは、すべてのコンピュータが中央コンピュータに接続された状態で通信が行われる。中央コンピュータはすべての通信に介在するため、参加者が増加し、通信が増えるほど負荷も高まることになる。

ムーアの法則に代表されるように、コンピュータの性能は年々向上していくとしても、参加者や通信量の増加ペースについていくことは難しい。結果として、中央集権型システムの規模は一定の大きさに留まる。一方、分散型システムにおいては、それぞれのコンピュータが介在する通信の量はさほど大きくならない。そのため、インターネットは世界規模のネットワークとして現在も機能している。

一方、規模の観点から問題視されているのが、IPアドレスの枯渇である。現行のIPの規格では、40億超のコンピュータにアドレスを割り当てることが可能だが、それでは足りなくなる事態が発生するのではないかという危惧がある。しかし、この問題については組織ごと・ISPインターネット・サービス・プロバイダ)ごとに中央集権型システムを構築し、そのシステム内でIPアドレスを共有するといった技術的対策を取ることで、当初の予想よりも穏便な解決がなされるのでないかと期待されている。また、より抜本的な解決策として、IPの新バージョン(IPv6)への移行が徐々に進められることになるだろう。いずれにせよ、原理主義的にではなく、運用のバランスによって解決を求めていく姿勢が、インターネットの普及の要因になったのではないかと思われる。

エンド・ツー・エンド原理

インターネットのアーキテクチャを規定する上で、非常に重要な概念となっているのがエンド・ツー・エンド原理である。エンド・ツー・エンド原理とは、あらゆる通信の制御はその末端(エンド)である、当事者となるコンピュータが担うべきであるという思想を指す。言葉としては至極まっとうに思えるが、情報通信ネットワークではエンド・ツー・エンドとはまったく異なるアーキテクチャを取ることも可能であり、どちらが優れているかは一概には決められない。

例えば、電話のネットワークでは中央に位置する交換機がすべての通信を制御する。相手が話し中の場合、そのことを自分に通知してくれるのは交換機の仕事であり、相手の電話機ではない。また、混雑時に通話の優先順位を決めるのも交換機である。このように、通信経路自体がある種の知的な処理を行い、末端では処理を行わないというアプローチは、管理の容易さから多くの分野で用いられてきた。

これに対して、インターネットでは、TCP/IPや次回に紹介するHTTPなど、規約(プロトコル)のほとんどがエンド・ツー・エンド原理に基づく末端での処理を前提としている。このことは、新たなサービスのためのプロトコルを考案し、それに賛同する人々の間で自由にそれを利用することができるという意味である。通信経路が何らかの処理を行うようなアーキテクチャでは、新たなプロトコルを利用するためには通信経路がそれを理解し、処理できるように改良が必要であるが、一般に通信経路を担うのは大きな企業であり、個人が考案したプロトコルが採用されることはほとんど不可能である。その点で、インターネットのエンド・ツー・エンド原理は、個人が試行錯誤できる場を提供し、ネットワークの可能性を広げる役割を果たしていると言える。

世界規模での通信を可能にしたTCP/IPによる分散性の実現、そして通信方法を自由に規定できるエンド・ツー・エンド原理は、インターネットの普及を支える両輪である。そして、インターネット上で行われるコミュニケーションは、この両輪の性質に強く影響されているはずである。次回は、インターネット上のひとつのサービスであるウェブがどのような性質を持っているかについて議論を進めていく。

「ウェブ未来論」はNTT出版Webマガジンに掲載されています。最新の記事はこちらから。