お知らせ

  • パソコン関連

壊れないパソコン

noimage

壊れないパソコン

パソコンを使う上での不安は、故障が一番大きいでしょう。 今している作業、保存されているデータなどが失われる、朝会社に来てパソコンが動かなければどうするか、という不安は常に付きまといます。 パソコンが壊れるのはどこが壊れやすいのでしょうか、また故障しないパソコンはできるのでしょうか。 壊れやすい部分 パソコンで壊れやすい部分は、可動部です。具体的にはモーターなどが付いているパーツです。 これはDVDドライブ、ハードディスク、電源、CPU冷却ファンやグラフィックボードのファンなどが挙げられます。 これらは消耗していきますので壊れることはやむを得ないことです。交換も比較的簡単にできています。 ただハードディスクはパソコンのなかで、データやソフトが保存されたユーザーにとって最も重要なパーツです。この重要なパーツが消耗品であることを理解すれば、バックアップがいかに必要なことかを理解できるはずです。 ハードディスクが故障する原因として、熱もまた挙げられます。統計的にパソコンの内部が高温になるとハードディスクは故障しやすいです。 ですので高温になりやすいハードディスク、CPU、グラフィックボードが発熱しにくく、またファンが正常に動いていることが重要になります。 これらのパーツが多ければ多いほど、メンテナンスの必要性は大きくなります。通気口が埃で詰まっていることでも故障率が増えてしまいます。 高温多湿になるとマザーボードのパーツなどにもダメージを与えてしまい、何をしても起動しないという状態を招きやすいです。 またUSBから電源をとる機器なども、使用電力の多いものを使い続けると発熱を招き、USBポートはマザーボード直接繋がっていることが多いのでダメージを与えてしまいがちです。 USBファンや携帯の充電なども大切に使いたい場合はあまりお勧めしません。 壊れにくいパソコン 壊れにくいパソコンを考えるなら、パーツの少ない、可動部の少ないものが理想的です。 現在とても低発熱のCPU、Core MやAtomが登場して、どんどん洗練されています。 Core Mはノートパソコン用ですがファンレスを目指して設計されたものです。Core iシリーズに比べれば処理能力は落ちますが、Officeの操作がもたつくというようなことはないでしょう。 このようなCPUはグラフィック機能も内蔵しているので別途グラフィックボードを必要としません。これで発熱源を一つ減らせます。 またハードディスクでなくSSDを利用したパソコンも故障の確率はかなり減ります。 SSDは半導体でできていて、少ない電力で動作するのでハードディスクのような熱を発することはありません。 DVDドライブなども内蔵ではなく、利用回数が少なく外付けで大丈夫であればそちらをお勧めします。 これらの構成であれば、電源も大きな電力を必要とせず、簡略化でき不具合も少ないです。 ノートパソコンは小さい筐体の中にパーツが密集しますので、どうしても熱がこもりがちですが、放熱の良い金属素材で筐体が作られていれば熱による故障率はかなり減少するはずです。 これらの条件をすべて満たせばパソコンで故障する可能性は限りなく減らせます。

  • パソコン関連

SSDがメモリ必要量を減らす

noimage

SSDがメモリ必要量を減らす

SSD(ソリッドステートドライブ)はハードディスクに変わり、新しいパソコン向けの記憶装置として出回るようになり、それなりの時間が過ぎました。 SSDはフラッシュメモリという半導体(SDカードなどにも利用されているもの)を使用した記憶装置です。 このSSDを搭載したパソコンは、メモリをあまりたくさん搭載していなくても比較的問題なく使える印象を持ちましたので、その意味を考えてみます。 メモリが足りなくなると メモリが足りなくなると、パソコンは一時的にメモリ外、ハードディスクなど遅い装置にメモリ内容を書き出し、メモリを実質的に拡張するように振る舞います。 これをスワップメモリや、仮想記憶と呼びます。 これが発生すると、メモリの読み書きスピードと、ハードディスクなどの読み書きスピードの差異で、急に処理が止まってしまったり、のろのろと動くよう印象を受けます。 かといって仮想記憶の仕組みを止めて、システムが利用できるメモリが0になってしまうと、システムのクラッシュを招きます。 ですので、メモリをたくさん利用するアプリケーションを実行する場合は他のメモリを使用しているアプリケーションを終了させて、という流れになります。 64bitのWindowsなどOSの普及によりメモリ搭載の上限は大きくなりましたので、たくさんメモリを搭載して、このスワップメモリの発生を防ぐという方法もありますが、機器費用としてはメモリに大幅にウェイトが置かれることになります。 ハードディスクとSSDの差 このスワップメモリは、メモリの代わりをするものですから、読み出しや書き込みをする場所の指定を受ければ、そこに直接アクセスしに行かねばなりません。 ハードディスクは構造的に高速で回転する磁気円盤の上をヘッドと呼ばれる装置が移動して、読み書きを行います。 直接アクセスを行う場合は、まずシークといってその場所が磁気円盤のどこにあるかを探し、ヘッドを移動して円盤が回転してくるのを待ちます。メモリの読み書きに比べて数百倍は時間が掛かるものです。 スワップが発生すると、その数百倍の遅さが積み重なって、動作が耐えられないぐらい遅くなったり、止まってしまったかのように見えます。 そもそもハードディスクは動画などの大きなデータを順番に読み取っていくなどの動きに適していて、このようなランダムな場所を直接読み書きするのには適していません。 SSDはハードディスクに比べて、このランダムな読み書きにとても強い性質を持っています。 物理的に動く装置がそもそも内部にありませんので、データは電子的なやりとりとなります。 物理的に見るとメモリと同じ仕組みでのデータの読み書きになり、スワップメモリのようなものにも強くなります。 SSDはハードディスクを接続するSATAよりも高速なPCIエクスプレスへの接続のものが多くなっており、読み書きの高速さからこの仕組みが採用されることが多くなっています。 SSDの寿命について SSDには書き込み上限がある、ということを気にされる方もいらっしゃいますが、現状そのようなことを気にする必要はありません。 SSDが非常に高額で、容量がごく少なかった頃の慣例にすぎなく、よほど弱点を抱えたSSDでなければパソコンそのものの機材の寿命よりもSSDの寿命の方が長いです。 それでも寿命が気になるという場合、失いたくないのは作業効率、データ、SSDのどれかということになります。 効率を失いたくないためにはSSDをスワップメモリの置き場所にすべきですし、データを失いたくない場合はバックアップです。 SSD本体を大事にしたい場合はそれに意味があるのであれば、スワップメモリの苦手なハードディスクにスワップメモリを置くべきでしょう。 メモリ搭載量が多くても64bitOSは贅沢なメモリの使い方をしますので、ユーザーがメモリ使用量を気にしてしまうこともしばしばあります。 そのようなことにとらわれたくない場合は、システムとスワップメモリの置き場所をSSDにすべきでしょう。

  • パソコン関連

スマートフォンで遊んでますか?

noimage

スマートフォンで遊んでますか?

 スマートフォンを手に入れて、スケジュール、カメラ、天気予報、地図、さまざまな標準のアプリが生活の役に立っています。  スマートフォンを手に入れてから、普段持ち歩くものを一つ二つ減らすことができたり、様々な実用面でのプラスがあると思います。  それ以外にもスマートフォンは様々な楽しい用途にもアプリを追加すれば対応できます。SNSやゲームなどです。  コンピュータがゲームのために使われる歴史はかなり古いものがあり、コンピュータとともにゲームは一緒に育ってきたと言っても過言ではありません。 ごく初期のコンピュータゲーム  スペースウォー!というコンピュータゲームがマサチューセッツ工科大学で作成されたのは1960年代のことです。当時数億円する大型コンピュータPDP-1上で動作するコンピュータゲームで、グラフィックスを利用した今でいう据え置き型のゲームのようなものです。  このころのコンピュータゲームは、ただ遊ぶためではなく、コンピュータでできることの可能性を切り開くことでもありました。  しかしやはりゲームが人を惹きつけるからこそ、当時の技術を駆使したゲーム作成が可能となり、またこのゲームの開発に携わった人は、その後のコンピュータ科学やエンジニアとしてコンピュータの世界を牽引してきました。 エンジニアを育てたゲームたち  スタートレックは1970年代に同名のSFテレビドラマをテーマにしたコンピュータゲームです。そのテーマとも相まって、多くの人がこのゲームを遊びたいと思い、これをきっかけにBASIC言語を学び、ゲームを自分が使うことのできるコンピュータに移植しました。かつて別の規格のパソコンに互換性のあるものを作るときに移植と呼びました。  ローグはUNIXのプラットフォームで動作する、ロールプレイングゲームで、現在でも遊ばれているトルネコの大冒険などをはじめとする、ローグライクゲームのオリジナルとなりました。OSに備え付けでコンピュータとともに出荷されるぐらいに普及し、このゲームから多くの学生やエンジニアがUNIXとC言語を学び、普及させるきっかけになりました。 ゲームとモチベーション  コンピュータの普及とゲームとの関係は切っても切れないものです。  これはやはり新しいものに対しての触れるきっかけ、モチベーションを維持する為に必要なことだからでしょう。  Windowsも普及当時、マインスイーパーとソリティアは欠かせないものだったと筆者は考えます。これはエンジニアを育てたものではありませんが、Windowsの操作、特にマウスでの左右のクリック、精密な操作や、ドラッグアンドドロップの概念をわかりやすく普及させるのには最適のゲームであったと感じます。  スマートフォンでも、その操作を覚えるためにはまずはゲーム、というのも悪くありません。無駄に使っているように見えて実は伝統的なコンピュータの入り口なのです。

  • パソコン関連

NASと小規模オフィスのバックアップ

noimage

NASと小規模オフィスのバックアップ

パソコンが故障した際にすぐに復旧可能とするためにバックアップは必要です。 小規模オフィスで10台前後のパソコンがある場合、そのバックアップ先をどうするか、ということについては様々な選択肢があり、NAS(ネットワーク型のハードディスク)などで一元管理をなどを検討される場合も多いと思います。 筆者としてはUSB接続のポータブルハードディスクを台数分購入し、Windowsでの標準のバックアップ(Windows Vista以降に標準搭載)を使用する方法がベストではないかと考えます。 そう考える理由としては、NASの運用はそれなりにコストが必要だからです。 NASの運用コスト 専属のシステム管理者がいらっしゃる場合は、このNASの運用コストなどについてご存知のはずですので、そうではない方向けに書いてみます。 一般に販売されている小規模なNASはRAID1かRAID5など、ハードディスク装置が一台故障した場合でもデータを失わない冗長化という機能を持っています。 このRAIDを実現するために、多くのNASはLinuxをベースにした一つのパソコンの形になっています。 LinuxでRAIDを実現するためにはLinuxのファイルシステムを使う必要があります。ファイルシステムはWindowsではNTFSなどが利用されています。 これらに互換性は一切ありません。Windowsのパソコンにこれらのハードディスクを接続しても認識することはまずできません。 NASの本体に組み込まれたシステムなしにこのハードディスクの中のデータにアクセスすることは簡単なことではありません。 またNASのシステム自体を操作してトラブル対処するためには知識の習得が必要になりますので、コスト低減のためには業者との保守の契約を結ぶの現実的です。 ハードディスク故障時はハードディスクを交換し、そこからリビルドというRAIDの再構築が必要となりますが、このリビルドがうまく行かない場合NAS内のデータを失ってしまう危険性もありますので、障害発生前に手順通りにリビルドが完了するのかをあらかじめテストしておくべきです。 上記の理由からRAIDで構成されたNASにもバックアップは必要になりますので、4TBのNASであるとすれば、それをバックアップする別の4TB以上のストレージが必要になります。 USB接続のポータブルハードディスクの場合 USB接続のポータブルハードディスクの場合、1TBのもので一台¥8,000程度で購入できます。 10台をバックアップする場合は¥80,000必要となりますが、NASを導入することを検討する場合、¥80,000の予算ではかなり限定的なものになります。NASの保守も年単位で保守料が発生しますので、使い続けるには相応のコストが必要です。 NAS本体の金額は容量以上にシステムの堅牢性や、電源など各種構成機器で大きな差がつきますので、安くて容量が多ければお得という考えはある程度のリスクを伴います。 低価格NASは正常に動作しているうちは大丈夫でも、故障発生時により高価なNASと大きな差ができると考えるとわかりやすいです。 業務で使用するパソコンであれば、本体内蔵のハードディスク、バックアップ用のハードディスクの二台が同時に故障しなければよいことになりますので、NASで集中的に管理をするよりも運用は簡単です。 またバックアップのハードディスクへの書き込みが不良となれば、汎用品ですので新たなハードディスクの調達は難しくありません。 本体側ハードディスクの故障時もパソコンのメーカー保守で修理された後に、そこからバックアップを復元すればすぐに復旧します。これらはWindowsの標準機能ですので、複雑な専門知識は必要ありません。 ポータブルHDDを利用するとトータルでは安価になりますが、一元管理ではないので、盗難防止や定期的に実行されているかを確認するなどに注意を払う必要があります。 NASにせよ、個別のバックアップにせよ、業務上のデータを失わないためのバックアップは必要不可欠です。 最も重要なことはデータを失わないこと、業務を止めないことですので、失われる時間や費用を考慮して、よりよい方法を選択されることをお勧めします。

  • パソコン関連

クラウドの顧客囲い込み

noimage

クラウドの顧客囲い込み

クラウドコンピューティングは、序盤の戦いがかなり激しくなり、各社ともシェアの確保にサービスをより安価で、より多く使えるように内容を拡充させています。 クラウドでの顧客の囲い込みが、今後のIT業界の趨勢を決すると言っても過言ではありません。 クラウドで繰り広げられる競争 現在、クラウドストレージの容量争いが激しく展開されています。 クラウドストレージはオンラインでどこでも利用できるハードディスクのようなものです。 サーバー上の単一のハードディスクに保存されているのではなく、複数のハードディスクをまたがったイメージとして保存されていますので、ハードディスクのクラッシュによりすべてのデータが失われるという危険性はほとんど考える必要がありません。 またオンライン上のものですが、サーバーとの通信は暗号化されている為に、セキュリティについても大きな心配はありません。 GoogleのGoogle Drive、マイクロソフトのOne Drive、Dropbox、BOXなど、大手が無償の保存領域を拡張し、有料プランでは最大無制限など、さまざまな形でサービスを大きくしています。 クラウドストレージがここまで取り上げられるのは、本体に大きな保存領域を持たないスマートフォンやタブレットでファイルを扱うのに最適であり、デスクトップのコンピュータと即時的にファイルを共有できるメリットがあるからです。 クラウドストレージも10GB以上が無料で使えるものが増えてきたため、いちどこれらをパソコンとスマートフォンなどとの連携に用いると、よほど大きな理由がなければ乗り換えることを考えるユーザーは少ないと考えられます。 マイクロソフトのOne Driveは無料で15GB、ビジネス向け有料で1TBの容量が¥210/月で提供されます GoogleのGoogle Driveは15GBが無料、ビジネス向け有料が無制限で¥1,200/月です。 Dropboxは無償2GBで、ビジネス向けが¥1,500/月で無制限利用が可能です。 BOXは無料が10GB、ビジネス向けが¥1,800円/月で無制限となっています。 無制限プランはここ数ヶ月で多くのクラウドストレージが提供を始めるようになりました。 それぞれの思惑 マイクロソフトのOne DriveはWindowsとOfficeとの統合でもっとも効果を発揮し、現在のWindowsユーザーがマイクロソフトのソフトウェアから離れないようにする思惑があります。 GoogleはGoogleが提供する有償のサービス、Google Appsへのユーザーの誘導と、AndroidやChromeBookなどのGoogleのサービスに、より統合された一貫性を提供するものです。 Dropboxはクラウドストレージとしては老舗であり、現在様々な企業買収をすすめ、クラウドストレージから様々なサービスを展開していく思惑がみられます。 BOXは当初からビジネス向けのクラウドストレージとして開始し、現在様々なエンタープライズ向けのクラウドサービスとの連携をすすめ、連携先とタッグを組んでユーザーを獲得していく動きが活発です。 クラウドストレージは現在誰もが利用する訳ではなく、十数ギガのデータであれば、丸のまま移してしまう事もまだまだ不可能ではありません。 現在はオンラインで動作するアプリケーションやサービスを拡張するより、比較的に安価に拡張できるディスク容量で競争をしています。 これからオンラインのサービスやアプリケーションがより高機能になり、誰もが使えるようになる事で、それらのユーザーはそのサービスに囲い込まれていく事になりそうです。 オンラインのサービスなどは、同等のものを後発他社が提供するのは難しいので、ディスク容量よりはもっと替えがきかないものになるでしょう。 現在はパソコンだけ、社内ネットワークだけで共有されていたアプリケーションや情報を、オンラインでブラウザ経由で実行できるようにするサービスがどんどん増えています。 スマートフォンやタブレット、ChromeBookのような安価なパソコンの利用が拡大する時流の中、利用者は急速に増えてきています。 各サービス提供社は利用者にフィットした充実したサービスを提供する事で、ユーザーはパソコンの機械そのものよりも、クラウド上のサービスに料金を支払うよう方向にシフトしていく事になりそうです。

  • パソコン関連

クラウド、使えるか使えないか

noimage

クラウド、使えるか使えないか

パソコンをビジネスの現場で使う事は、ごくありふれた事になりました。 コンピュータは銀行や政府機関、大企業の業務システムとして1960年代から既に利用されていましたが、一般企業のオフィスで見かけるようになったのは1990年代の後半からです。 パソコンは80年代から一般家庭向けにも存在しましたが、当時は仕事にはつかえない、とほとんどの方が判断したため、オフィスで頻繁に見かける事はありませんでした。 この区切りはどこにあったのでしょうか。 そしてクラウドが使える、という区切りはどこにあるのでしょうか。 仕事につかえるパソコンとは パソコンが仕事につかえるようになった流れの中で、32ビットのパソコンが登場は、大きな節目となりました。 インテルが80386という32bitのプロセッサをリリースし、それを搭載したIBMのパソコンPS/2が現在まで続くWindows搭載パソコンの源流となりました。 いまでもキーボードなどのPS/2端子といった言葉に名残があり、日本ではDOS/Vなどと呼ばれた事もあります。 それまでの業務コンピュータと、16bit以前のパソコンの間には、価格も大きな差がありましたが、性能的にも大きな差があり、大きなデータが扱えない、高速な処理ができないなど、様々な壁がありました。 16bit以前のパソコンであれば、ワープロもライン出力のプリンタを使うもので、現在のようにグラフィックスや写真を文書内で取り扱う事もできませんでした。 伝票などを打ち出す用途などには利用できましたが、あまり多くの用途には対応できないもので、それを数十から数百万円かけて購入するのであれば、手書きの方がよい、という判断も妥当な時代です。 32bitの時代になり、IBMのPS/2がスタンダードな規格として普及し始めて数年後、1995年に32bitのWindows95がリリースされ、ワープロ、表計算など能力が向上しパソコンはビジネス向けの機器として受け入れられるようになりました。 この流れの中で少なくとも2000年前後にパソコンは使える、として多くの企業が導入し始めました。 クラウドの歴史を追う このように歴史を追えば、使えない時代からなにか技術的な節目があって、使える時代に変化する流れをたどる事ができます。 クラウドのようなネットワーク越しにコンピュータを利用する考え方は、例えば1995年にOracleが提唱した500ドルパソコンというものがありました。 500ドルパソコンはネットワークからアプリケーションやデータを利用する形にすれば、パソコンとは違ってハードディスクなどの記憶装置を組み込まず、安価にコンピュータを導入することができるだろう、という考え方でした。 しかし当時ネットワークの通信速度が遅かった事や、パソコンが急激にシェアを増やした為にパソコン自体が安くなってしまったので、500ドルパソコンは実現しませんでした。 ネットワーク通信速度が遅かった事に加え、サーバーに多くの機能を割り振ってしまうと、サーバーが故障してだれも利用できなってしまうことも考えねばなりません。そのためネットワークにすべて預けない、リスクをのせる必要がありました。 結果ブラウザ依存や、追加プログラムのインストール、プラグインなど使い勝手を追求すればするほど、パソコン側に多くのものを必要とするような流れがありました。 仕事に使えるクラウドとは 従来のサーバーからクラウドのもっとも大きな変化は、障害にとても強いという事です。 それまでのサーバーであれば物理的な故障は必ず想定しなければなりませんが、クラウドのサーバーは仮想化によって、システムの停止の影響は最小限に抑える事ができるようになっています。 前述の500ドルパソコンは実現する事はなかったと書きましたが、タブレットという形で、現在多く普及しています。 タブレット自体はパソコンほど高性能ではありませんし、記憶容量も少ないですが、主にネットワーク越しにクラウドのデータやサービスを使う事によって必要なものを共有して利用する事ができます。 現在はLTEやWi-Fiなど高速な無線ネットワークや、インターネット接続が光ファイバーで高速化されていること、またサーバーの耐障害性が向上する事で、このような仕組みが現実化するようになりました。 そして電源ケーブルから解放されたコンピュータはスマートフォン、タブレットなどの形で外出先や望む場所からコンピュータを利用できる事を可能とするようになりました。 スマートフォン、タブレットを効果的に使うにはクラウドが必要ですし、クラウドはスマートフォン、タブレットの普及に応じてシェアを伸ばすという、お互いを必要とする関係があります。 この流れができている事、スマートフォン登場からちょうど7年、それを大きな節目として、クラウドは使えるという判断を行う理由です。

  • パソコン関連

現行パソコンの買い得感について

noimage

現行パソコンの買い得感について

現行のエントリー(標準)クラスのパソコンは特殊な用途、例えば高精細な3Dグラフィックスを多用したゲームや、学術的に高度な計算等でなければ、十分すぎる能力をもっています。 現在のパソコン周辺の事情を考えると、現行のCoreシリーズのプロセッサ(CPU)を搭載したパソコンはかなり長期間にわたって使い続けられそうです。 具体的に言えば、延長保証をかけたとして、その保証の範囲内では我慢せずに使い続ける事ができるだろうと考えます。 選び方 IntelのプロセッサのラインナップはCore i7,Core i5,Core i3,Pentium,Celeron,Atomというラインナップになっています。 Core iシリーズは主力商品で、Pentium,Celeronはそれの廉価版になり、歩留まり向上などの為に機能制限などを行ったものです。Atomはタブレット向けなどの省電力用の別製品と考えてもいいでしょう。主力商品と廉価版の違いは、現役でいられる期間の差と考えるとわかりやすいです。 Core i3とCore i7で倍以上性能が違うという事もありませんし、あるいはアプリケーションによってはほとんど変わらない事も多いので、予算的に問題がなければCore i5を選択すれば、長く使えると考えています。 ハードディスクは500GBもあれば、動画編集などに利用しない限りは、特に不足を感じる事はないでしょう。 USBは3.0のポートがついたものを選択してください。USB2.0までしか対応していないパソコンは、店頭に並んでいても最新世代のものではないかもしれません。 グラフィックスについては、HDMIやDisplayPort端子がついているものを選ぶと後々の拡張の為に役に立ちます。 ブルーレイディスクが必要かどうかは、用途に合わせて選択してください。映像用のブルーレイディスクは複製が行えないものですし、データ記録用としても25GBでは書き込みにかかる時間にか対して、不足を感じるところもあるかもしれません。 処理能力 現在プロセッサの処理能力は、新しい世代のプロセッサが出て一割程度の向上になることがほとんどです。 新型のプロセッサが登場しても、1~2世代の間隔では、現在使っているアプリについて、体感できるほどの差は生まれることはありません。 現在処理能力でもっとも伸びしろのある部分はグラフィックス性能ですが、かつてほとんど使い物にならないと言われていた内蔵グラフィックスもそれなりの能力を持つようになってきました。 話題に上る事もある4Kディスプレイも、必ずしも動画再生ができるという訳ではありませんが、内蔵グラフィックスでも対応可能な能力を持っています。 拡張性 USB3.0はパソコンの拡張性を大きく広げたといえます。 USB3.0はUSB2.0に比べれば大幅に転送速度が向上し、外部ハードディスクやフラッシュメモリの読み書きに十分な性能をもっています。 USB2.0時代はIEEE1394やeSATAとは大きな差を付けられていましたので、ハードディスクはeSATAのものを選ぶ方がよい、などと複雑な選択肢もありましたが、USB3.0であれば、外部の記録装置はこれで接続すればいいという簡潔な答えが用意されています。 ブルーレイディスクやDVDなどは、USB2.0時代でも速度的には十分なものがありましたので、USB3.0にすれば書き込み速度が倍になるという事はありません。 USB3.0にすれば長時間かかっていた外部ハードディスクへの日時バックアップも短時間で終える事ができるので、業務で使う場合でもメリットがあります。 ディスプレイを将来的にマルチで使いたい、などの要望がある場合は標準的なD-SUB端子と合わせて、HDMIやDisplayPortがあるものを選べば、それぞれにディスプレイを接続する事ができます。 保守性 故障しやすさは、部品点数の多さとほぼ比例します。 現在エントリークラスのパソコンは、グラフィックスやネットワーク、音源など拡張カードはほとんどついていない状態で、パソコンの主な基板に統合されていますので、以前からは考えられない位に内部は単純化しています。 また昨今は省電力である事も重要視され、発熱も抑えられたプロセッサ、ハードディスクなどが利用されていますので、熱がこもる事による故障も少なくなっています。 ソフトウェア Windows8.1はタブレットなどの処理性能の比較的低い機器に合わせる為に今回のUpdateで大幅に軽量化しました。ですので、WindowsがCPU等の処理能力を大きく必要とはしません。 特にWindows8.1の32bitバージョンは必要最低限のメモリが1GBとかなり少なく、インストールに必要なハードディスク容量も少なくなりました。 実際に数世代前のパソコンからのXP乗り換えも目的としたUpdateのリリースでしたので、最新世代のパソコンでは不足になる事はありません。 OSの軽量化については、Windows7にくらべてWindows8.1以降がとても有利な部分になっています。 おそらくWindows9となるような、次期Windowsのメジャーリリースがあったとしても、現行のパソコンが不足となる事はないと予想されます。 Windowsのリリース間隔も短くなり、パソコンの処理能力の向上はそれにそもそも追いつきませんので、ソフトウェアのアップデートに置いてけぼりになる可能性はどんどん低くなります。 Windows8.1Updateがここ6~7年のPCをサポートしていることを考えると、Windowsベースで考えれば三世代程度のアップデートの間では現役でいられると考える事ができます。

  • パソコン関連

2014年度の私たちの取り組み

noimage

2014年度の私たちの取り組み

システムキューブ最寄りの公園の桜が満開になりました。 春の始まりとともに、気持ちも新たに従業員一同業務に取り組んでゆく所存です。 WindowsXPのサポート終了後 思えばこの4月は時代の移り目を感じさせる出来事があります。 WindowsXPのサポート終了です。 WindowsXPは2001年にリリースされて13年、Windowsのシェアを牽引する役割を担っていました。 WindowsXPはWindowsNTの堅牢性に、マルチメディア性能、セキュリティ強化を行った、多用途に使える素晴らしいOSでした。 実際に、業務に本格的に取り入れたのはWindowsXP以降から、という企業様も多いでしょう。 パソコンは定期的に更新することで、新しい機能や、快適な操作性を手に入れられるものですが、事務用機としては、現在の機能が使えるならば、壊れてしまうまで使いたいという気持ちが生まれます。 特に障害になるのが、初期に導入したプリンタなどの周辺機器が新しいOSでは使えない、ソフトウェアも最新のOSで動作するかわからない、といったことです。 これを一気に更新するのは、家庭用の一台のパソコンと、安価なプリンタの構成の、個人と同じ感覚では難しいです。 この状況を一変させてしまうツールとして、クラウドが一歩前へ進み始めました。 クラウド時代の始まり クラウドはインターネット上にサービスとしてソフトウェアや、コンピュータを展開し、それをユーザーが利用するものです。 クラウド化によって得られる恩恵は、セキュリティの高さと、障害で停止する時間を最低限に抑える堅牢性が確保できることになります。 事務所内のコンピュータが故障しても、別のコンピュータで続きの作業を始めることができ、またクラウド上のシステムは常にアップデートされ最新の状態を保たれています。 インターネット経由で企業の情報などを送信して勝手に使われたり、盗聴できないか、という疑問に関しては、技術的にはクリアできており、サービス自体の品質に依存します。 クラウドという形態はGoogleの誕生以来ですが、Googleは1998年に設立されており、そこからクラウドの堅牢性と機密性への発達が始まりました。 すでに15年を超える歳月で発展し、それらは政府機関、銀行、大手企業などでも使用に耐えるものとして、実際に導入される事例は多く上げることができます。 このデスクトップパソコンのおよそ10年の境目に、成長したクラウドが実用に耐える選択肢として私たちユーザーの前に現れました。 またスマートフォン、タブレットなど、コンピュータの新しい形が次々と現れる中で、クラウドがその能力を補うものとして存在感を増しています。 デスクトップやノート型のパソコンは、業務の根幹を担うものとして消えてしまうことはないでしょう。 一方で持ち運べるコンピュータであるスマートフォンなどを活用するにはクラウドを今取り入れ、お互いを補うことがコンピュータの可能性を大きく広げていきます。 費用対効果の高いソリューションを目指して ソフトウェアの開発を主に行っている私たちシステムキューブとしては、これからはクラウドも視野に入れたシステムの構築をお勧めしていきたいと考えています。 事務所内のデスクトップ、離れた事業所、出先のスマートフォンやタブレット、など、モバイルと業務システムをうまく繋げるのがクラウドのもっとも大きな役割になります。 現在メールで情報共有されているものも、クラウドを使えば、メールよりもはるかにコミュニケーションが円滑に、またスピードを持ったものになります。 意思決定のスピード、そして社内での重要な情報の共有は、最終的に顧客満足度、安心感、信頼感につながるものです。 より時代に合わせた、より満足度の高いシステムをご提案させていただくため、システムキューブはこれからも時代の流れをつかみ、研鑽を重ねていきます。   (3/31桜の木の下でキャッチボール)

  • パソコン関連

PowerEdge T110の導入・セットアップ

noimage

PowerEdge T110の導入・セットアップ

DELLのエントリークラスサーバー機、PowerEdgeT110IIを、社内サーバーとして導入しました。 その経緯と、導入の簡単な説明をしてみたいと思います。 PowerEdgeサーバー導入の経緯 今回のサーバー導入以前は、一般的なデスクトップ型パソコンをファイルサーバー、開発用データベースサーバー、バージョン管理のサーバーとして使用していました。 内蔵のハードディスクドライブはあまり容量がないものでしたので、USBハードディスクを接続してデータ共有領域、もう一台を接続して、それに日次バックアップをとっていました。 単純にこのファイルの二重化のみで十分だと考えていたのは、運用方法として、ローカルに作成したファイルなどをサーバに共有するため、それで三重コピーとなり、ローカルPCのバックアップと合わせれば、ほぼファイルは失われることはないだろうという想定のもとです。 ただ弊社もこの春からメンバーも増え、共同作業が多くなるうちに、ファイル共有サーバーにのみ存在するファイルも多くなり、ファイル共有サーバーの可用性と耐障害性が必要となってきました。 そのため、たとえばRAID1等を利用したWindowsStorageServer2012のような製品も候補に挙がりましたが、データベースやバージョン管理など、汎用的に使うことと、ハードウェア保守をきちんと入れる意味で、PowerEdgeサーバーの購入に至りました。 PowerEdgeT110 IIについて PowerEdgeT110 IIはDELL社の中でも最も安価なサーバー製品ラインナップで、1Wayサーバーです。電源の冗長化、ハードウェアRAIDやハードディスクのホットスワップがありません。 1Wayサーバーはプロセッサ用ソケットが一つしかなく、プロセッサが一つしか搭載できません。 電源冗長化とは、電源を一つしか持たず、一つの電源が故障すれば、システム全体が停止するということです。 ハードウェアRAIDはRAID専用の拡張カードを持っていて、拡張カードの機能によって、RAIDが実現されるものですが、今回はソフトウェアRAIDです。 ハードディスクのホットスワップの有り無しは、電源をつけたまま、障害ハードドライブの交換が行えるかどうかという差となります。 こう書いてしまうと、はたして十分な可用性を持つのか、と思われる方もいらっしゃると思います。 サーバー自体が停止した際は、USB接続の外部ハードディスクにミラーをとっていますので、それを他のパソコンで読み出し専用の共有をします。 ファイルの編集は個々のパソコンで行い、保守が入ってサーバー復旧とともにファイル共有を行う想定でコストの削減を狙っています。 サーバー機自体のコストを抑えた分、RAID5+ホットスペアの構成をとっています。 三台構成のRAID5で、一台故障の際は、予備の1台がRAIDに組み込まれ、RAID5の再構築を行います。 PowerEdgeT110IIの導入 PowerEdgeT110でRAIDを導入するにあたってオプションのPERC S300というRAID用のカードを選択しましたが、これはチップセットが持っているRAID機能を利用したもので、PERC S300は実質上SATAあるいはSASハードディスク用のホストアダプタです。 これに対応するドライバは現在WindowsServer2003~2008R2までとなっており、最新のWindowsServer2012には対応していません。 このPERC S300用のドライバは、Windows導入以前にあらかじめダウンロードしておかないと、RAIDボリュームにWindowsを導入することはできません。 起動時にCtrl+RでRAIDのセットアップ画面に入ることができ、ここでどの物理ディスクをRAIDに利用して、仮想ディスク(物理ディスク上に構成されたRAIDボリューム)にするかという設定になります。物理ディスクをホットスペアとして登録することもここでできます。 ここでRAID内の実質的なパーティション分割を行います。システムボリューム、ユーザー領域という形で、およそ4GBのRAIDボリュームを切り分けます。 この後、Windowsのインストールに移ります。まずそのままでは、インストールすべきハードディスクが見つからない状態になります。 ここで、RAIDコントローラーのドライバをCD-ROMから読み込ませると、RAIDボリュームがハードディスクとして認識されます。 RAIDコントローラーのドライバーを読み込ませた後は、Windowsのインストーラーのディスクに戻しておかないと、このハードディスクにWindowsをインストールできない旨の警告が表示されます。 この後の導入については、従来までのWindowsサーバーのインストールと同様になります。 導入後のサーバー移転 サーバーのインストールが終わると、ネットワーク越しに、旧サーバーのデータをミラーします。 完全に構築が終わる前にあらかじめコピーしておけば、あとは差分のコピーのみになりますので、時間の短縮になります。 ただ、ネットワークやサーバーの負荷が大きくなるので、これは誰もいない時間帯か休業日を選んで行いました。 そして、バックアップドライブへのバックアップタスクを設定します。 バックアップにWindowsに付属しているRobocopyというコマンドラインアプリケーションを使用します。 robocopy [コピー元] [コピー先] /MIR /E /COPYALL /EFSRAW /NP /LOG+:”ログファイル” /ZB /R:10 /W:30 をミラー用。 robocopy [コピー元] [コピー先] /E /COPYALL /EFSRAW /NP /LOG+:”ログファイル” /ZB /R:10 /W:30 を誤消去防止用バックアップとして、それぞれ別のタイミングで、別のHDDにバックアップするようにしています。 robocopyのコマンドの内容については、また別の機会を設けて説明したいと思っています。 これらのタスクを作り定期実行の確認をしてから、データーベースサーバーやバージョン管理サーバーのインストールを行いました。 バージョン管理はSubversion Edgeが定期バックアップ機能を備えているので、これを利用して、バックアップディスクにバックアップしています。 そして全員の業務のない日を選んで、すべてのデータを新サーバに移転し、バージョン管理のデータを移転。 旧サーバーのファイル共有を停止して、バージョン管理も停止します。 あとは一通りの定期バックアップタスクが無事完了することを確認して、全ユーザー向けにファイルサーバーの移転を通知して、移転の作業は終了です。 これでRAID5ボリューム、外部HDD2つにフ ァイルが保存されるので、全てを同時に失うことがなければ、データの消失には至らないはずです。 これらの作業を終えて PowerEdge T110IIというエントリークラスのサーバーでも、性能と、データの保全性高めることができました。 低コストでも、何かあった際、できる限りダウンタイムを低減できるものと考えています。 この事務所の中でサーバの設置場所など、様々な下準備と下調べに時間がかかり、ブログの更新が後回しになる状態が続いていましたが、今後また安心できる環境の中で、ブログ更新などが行えるものと思っています。

  • パソコン関連

無線LAN規格IEEE802.11ac(draft)を試す

noimage

無線LAN規格IEEE802.11ac(draft)を試す

一般向けの無線LAN規格802.11ac(draft)での無線LANの構築計画を立て、実際に使用できるかの判断のために、通信速度などを計測してみました。 無線LAN規格について IEEE802.11が無線LANの規格を定めているもので、この後に続く、a/b/g/n等といった文字は、この規格のなかで、周波数や、方式の違いなどによる差を示しています。 b/g/nという無線アクセスポイントは、一番多く普及しており、またもともと対応しているノート型パソコンや、スマートフォンなども多いです。これらは周波数としては、2.4GHzを利用しています。 弊社事務所でも、ノート型PCや、タブレット、スマートフォンなどのためにこの2.4GHzのアクセスポイントを使用しています。 2.4GHzを利用するアクセスポイントは普及台数も多いため、このところ電波の干渉が多く、到達距離や、スピードに影響が出ることも多くなってきています。 a/n規格と呼ばれる無線LANは5GHzを利用するため、遮蔽物や距離に対しては比較的弱いですが、アクセスポイント普及台数も少なく、干渉も少ないことから、この5GHz帯のアクセスポイントの導入を検討しました。 LANの拡張の計画 弊社の従業員数も増え、事務所の拡張を本格的に検討する上で、コンピュータ企業としてはネットワークがどうしても欠かせません。 Webサイト作成も主な業務ですので、ルーターの外に出ていく通信も重要ですが、社内でのファイルのやり取り、ソースコードのバージョン管理システムとのやり取り、データベースサーバーとのやりとり、などの通信には、より高速性を求められます。 本来有線のLANを敷設するのが正しい方法ですが、現在配管などがないため、増設工事を行うとしても業務との兼ね合いがありますので、即取り掛かるのは簡単ではありません。 そこで、今回LANの拡張のためにこの802.11ac規格の無線通信の導入を検討します。 このようなイメージで構築を考えています。 外部へ出ていく通信は、NTTの回線速度で固定されていますので、社内LANとしてどれだけ使えるのか、ということを主眼にして考えてみます。 IEEE802.11acの親子接続の速度 現在あるLANのスイッチングハブにNEC Aterm WG1800HPを接続しアクセスポイントとします。そして同型のアクセスポイントを子機、イーサネットコンバーターとして、新設されるLANとの通信に利用します。 十分使えるスピードが出るのでしょうか。実効751Mbpsといっても、非常に良好な状態での計測と考えられますので、それだけの速度はまず出ることはないと経験則から考えてテストしてみます。 iPerfの結果 iPerfというネットワークの帯域を計測するアプリケーションの計測の結果は以下の通りです。 2.4GHz(802.11n) 54.82Mps 5GHz(802.11n) 185.6Mbs 5GHz(802.11ac)コンバータ 254.4Mbps 有線ギガビットLAN 922Mbps クライアントPCとWindowsサーバー間の計測で、それぞれ5回の計測の平均値を出しています。 有線LANはやはり安定して、900Mbps以上出ています。 2.4GHz帯は、他の無線LANアクセスポイントの干渉を受けて、かなり速度は遅いことがわかります。 802.11ac規格、イーサネットコンバータ経由で最大300Mbps出ましたが、平均すると250Mbps程度となりました。 有線LANの3分の1程度の帯域と言えます。 これは計測上のもので、ここから実際のデータを受け渡しするとなると、この通りの結果は出ないものと考えます。 引き続き、ファイル転送の結果を見てみたいと思います。 FTPの結果 FTPによるサーバーへのファイルのアップロードの転送速度です。 STORコマンド発行後ファイルを送信し始めたところからの経過時間と、転送ファイルサイズを割ったものを表しています。 これは一度のみの結果なので、ファイル転送時の電波の状態などにかなり左右されています。 2.4GHz(802.11n) 53.09Mbps 8.34Mbps 5GHz(802.11n) 151.56Mbps   5GHz(802.11ac)コンバータ 190.54Mbps 130.50Mbps 有線ギガビットLAN 374.66Mbps 444.60Mbps 2台のパソコンで計測し、1台は5GHzの無線アダプタを内蔵していないノートパソコンです。 結果はかなりまちまちですが、iPerfの結果ほどには有線LANとの差はありません。 ファイルのサイズは833Mbyte、802.11acのイーサネットコンバータ経由で35秒です。 有線LANでは15秒程度で、感覚で言えば、有線LANの2分の1というところです。 Windowsファイル共有の結果 2.4GHz(802.11n) 44Mbps 12Mbps 5GHz(802.11n) 288Mbps   5GHz(802.11ac)コンバータ 240Mbps 190Mbps 有線ギガビットLAN 640Mbps 505Mbps 転送したファイルと機械はFTPと同一の条件です。 ファイルをドラッグアンドドロップした状態から転送ダイアログが消えるまでの時間を計測しています。 Windowsファイル共有は、WindowsServer2008R2とWindows7以降との接続で、SMB2.1を利用した接続となり、ネットワークの帯域が広いほど、転送速度が目に見えて向上しています。 この計測のために、サーバーと他のパソコン間の通信を止めているわけではないので、無線の状況や、サーバーへのアクセスなどにもよって揺らぎがあります。 833MByteを転送するのに802.11acのイーサネットコンバータ経由で28秒ほど、有線LANでは10秒強です。 まとめ この有線LANとの2~3倍程度の転送速度の差を、使える、あるいは使えない、という判断は、それぞれの利用シーンや捉え方に応じて変化するものでしょう。 かつてギガビットの有線LANのない時代に、細々とした回線で通信していたことを思うと、筆者としては10年ひと昔の感があります。 無線で100Mbit有線LANをはるかにしのぐ速度で、ギガビット有線LANの3分の1ものスピードは、無線LANに求めているものをはるかに超えたものでしょう。 これだけの速度が常に出るのであれば、利用シーンによっては無線のみでコスト削減することを選ぶことも十分可能でしょう。 802.11ac規格のアクセスポイントは、11nのアクセスポイントとしても高速で、最新のスマートフォンやタブレットなども11n規格の無線通信で恩恵を受けます。 802.11ac規格の無線LANアダプタ搭載のノートパソコンが普及するまでは、まだまだ時間がかかりそうですが、このようなLAN間の橋渡しであれば、機器の普及を待たずに高速化のメリットを生かせそうです。 まだ802.11ac規格はdraftの状態ですが、これから発売される新しいパソコンなどにもアダプタが内蔵されて行くはずです。 将来的には無線でかなりのネットワーク部分を担当することができるようになりそうです。

1 2 3 4 6