月別アーカイブ: 2014年5月

ホームページの本質とは何か~Googleが目指しているもの

「ホームページを作りたいのですが・・・」と相談してくる方がいます。

「自分で作れるようになりたい」と言うのだけど、それほど技術レベルも高くないので、簡単に作れる方法はありませんか?とよく聞かれます。

具体的なホームページの内容も考えていないのに、「デザインだけはこだわりたい」と言う人もいます。

ホームページを作れば、すぐに有名になってしまうと勘違いしている人もいます。

恐らく、有名な会社のホームページや、きれいなデザインのホームページだけに目が行き、ちょっと詳しい人に聞いた知識だけで、ホームページというものを理解しているのだと思います。

たとえば、ディズニーランドに行ったとしましょう。
お客としてディズニーランドに遊びに行くと、夢のような世界を見せてくれます。
でも、ディズニーランドで働いている従業員は、その世界観を作るために日々努力して、芸を磨いたり、園内を清掃したり、丁寧にお客様に接したりということをしているのです。

ホームページもディズニーランドと同じように、見えている部分だけではなく、その裏でたくさんの努力を継続していないと、いいホームページにはなっていかないのです。

ですから、ホームページを作るということは、一時的なことではなく、これから始まる長いホームページの歴史をどのように組み立てていくかということになります。また、当然のことですが、目的に沿った十分なコンテンツを用意して、見る人が理解しやすい形に作り上げてゆく必要があります。

昨年、Google検索エンジンのポリシーが大きく転換しました。
そのことで、最近の検索においては、サイトのトップページよりも、コンテンツが充実した下位のページを優先して上位に表示するようになりました。つまり、サイトというよりは、ページの内容を主軸に検索エンジンが働くようになってきているということです。

このページの内容というのは、いわゆる「文章」のことを指します。詳しい文章を書けば書くほど、Googleでの検索順位は上がるということです。

最近は、ホームページの骨格やデザインを簡単に作成できるツールも増えてきていますが、そのページの内容まで自動で作成してくれるわけではありません。つまり、ホームページの内容を考え、その文章を書くということは、必ず自分で作り出さなければならない大切な部分なのです。

Google検索エンジンが最も重要だと考えているのは、ページ内の文章の内容の部分であって、それこそがホームページの本質だということなのです。

そういう意味で、「ホームページを作ること」=「文章を書くこと」という方程式が、最初の一歩だということなのです。ホームページを作成したいと思う方は、その1つ1つのページの内容を文章でまとめてみてください。

その作業の中で生まれてくる「伝えたい本質」がはっきりと見えてくる中で、ページのデザイン(骨格と構成)が自然にイメージできるようになってくると思います。

そういう段階に来て初めて、実際のホームページ作成作業に入っていくことができるようになります。

 

パソコンを遅くする原因は何か?

一般に、パソコンを使っていると、ある時点からだんだん反応が遅くなってきたなあ~と感じることがあります。

中には、遅くなったことに敏感ではない人もいるようですが、毎日パソコンを使っていれば、ちょっとした動きの遅さに気付いてくると思います。

パソコンが遅くなってくる原因は1つではなく、その状況にあわせて何が原因かを考え、すぐにパソコン全体のメンテナンスを行うことが必要です。

症状と解決方法について

まず最初に見る部分は、起動だけが遅いのか?、それとも起動から十分に時間が経っているにもかかわらず遅いのか?という点です。

起動だけが遅いのであれば、パソコンの起動時に自動で立ち上がってくる常駐ソフトを疑う必要があります。常駐ソフトがたくさんあると、起動に長い時間がかかったり、メモリの一部を占有するためにパソコンの速度を遅くしてしまいます。

対策としては、常駐ソフトが起動しないように設定するか、問題のある常駐ソフトの場合は、削除したほうがいい場合もあります。

起動時ではなく、ある曜日やある時間帯だけやたら遅くなるという現象もあります。この場合は、ウィンドウズのファイルのバックアップをバックグラウンドで行っている可能性があります。このバックアップの設定はコントロールパネルの中にありますので、バックアップのスケジュールを無効にすれば解決します。

全体的に、起動時だけでなくずっと遅いという場合は、ハードディスク上のファイルやフォルダの問題が考えられます。もっとも考えられるのが、ファイルやフォルダにエラーが生じている場合です。ファイルやフォルダにエラーがあると、ファイルを見つけられないで時間がかかることになります。

このファイルやフォルダのエラーは、ハードディスクのエラーチェックを行うことで解決することができます。Cドライブのプロパティのツールタブの中にあるエラーチェックは、トラブル時だけでなく、定期的に行うことで、パソコンの調子を維持することができます。

これに対して、インターネット回線に接続すると、パソコンが遅くなるという現象があります。この場合は、ネット上と常時交信しているソフトがパソコン内で常駐している可能性があります。インターネットエクスプローラーの表示スピードが遅い場合は、インターネットエクスプローラーのアドインソフトがネットと更新するためにインターネットエクスプローラーを遅くしています。

また、最近はブラウザハイジャッカーという類のソフトが増えており、ブラウザソフトのトップページを乗っ取り、入力した文字をネットに送信するものが増えています。

このような場合は、悪いソフトやアドインソフトを手動で削除する必要があります。コントロールパネルのプログラムのアンインストールから、怪しいソフトを見つけて削除することが必要です。最近は、フリーソフトなどをダウンロードして、インストールするときにこれらの悪いソフトがいっしょにインストールされてしまうというトラブルが増えています。

プログラムのアンインストールの画面でインストールされているプログラムの一覧が見えますが、どのソフトが悪いソフトであるかを見ただけで判別するのは難しいと思います。一般的にはプログラムの発行元の会社名を知らないプログラムの場合は、そのプログラム名をネットで検索してください。悪いプログラムの場合は、削除方法で困っているというような記事がたくさん見つかると思います。

パソコンが遅いだけでなく、ときどきフリーズするという場合は、かなりヤバイ状態と考えてください。フリーズした場合は、当然強制終了をするしかないのですが、この強制終了でファイルやフォルダのエラーが増えて、さらに調子が悪くなることがあります。

フリーズの原因は、ウイルスがメモリを占有してマウスやキーボードが動かなくなることもありますし、インストールされているソフトどうしがバッティングしてフリーズすることもあります。さらに、ハードディスクの損傷によりファイルが壊れて、それが原因でフリーズする場合もあります。

フリーズに遭遇した場合は、ハードディスクのLEDが点灯や点滅をしているのか、それともまったく点灯や点滅がなくなっているのかをよく観察してください。LEDの点灯や点滅がある場合に、強制終了してしまうとパソコンが壊れる可能性が高いので注意してください。LEDの点灯や点滅が全くない状態であれば、強制終了しても大丈夫です。

フリーズを何回も行っていると、ハードディスクの損傷が増えてしまうので、たとえリカバリーを行っても症状が改善しない場合があります。このような場合は内臓のハードディスクを交換してリカバリーを行う必要がでてきます。

どんなソフトに気を付ければいいのか?

私がこれまで遅くなったパソコンを見てきて、問題を引き起こしているソフトは以下のようなものです。

(害はないが、パソコンを遅くする可能性があるもの)
●Yahooツールバー、Googleツールバー、Azbyツールバー、楽天ツールバー、Skypeなど

(害はないが、パソコンをかなり遅くするもの)
●Yahooかんたん設定

(害がある上に、パソコンを遅くするもの)
●Baido IME、inbox toolbar、hao123、delta toolbar、babylon toolbar、Zoo Toolbar、zip extractor packages 、Funmoods Toolbar

(ウイルスに近く、パソコンを遅くするもの)
●Reg Clean Pro、Uniblue SpeedUpMyPC、Uniblueのソフトはすべて、BitGuard

まだ沢山あると思いますが、とりあえず上記のプログラム名には注意してください。

Google XML Sitemapsは仮想サイトマップへ

ワードプレス(WordPress)を使用してホームページやブログを運営している方も多いと思います。

ワードプレスの長所としては、ブログ記事とは別に固定ページが作成できることと、オリジナルのメニューが作成できること、そして、既存テーマを選択することで外観を簡単に作成できることです。

一方、短所としては、WordPress自体のバージョンアップが多いこと、プラグインのバージョンアップや仕様がよく変更になること、管理画面の構造が複雑で設定が難しいということです。それと、もう一つ難しいことは、ドメインの割り当てを変えるときです。

今回、プラグインの「Google XML Sitemaps」のバージョンアップにより、サイトマップの構造が大きく変わったことで、混乱している人がいるかもしれません。

Google XML Sitemapsは、Googleのウェブマスターツールに登録するサイトマップを自動的に作成してくれるプラグインです。今回、Google XML Sitemapsのバージョンが3から4に変わったことで、サイトマップの仕様が大きく変化しています。

簡単に言うと、これまでのサイトマップが実在するサイトマップファイル(sitemap.xml)であったのに対して、バージョン4以降では仮想のサイトマップになっています。これまでは、サーバー上でサイトマップのファイルが確認できたのに、FTPツールなどでサーバー上のファイル一覧を見ても、サイトマップファイルが存在していないということに気づきます。

にもかかわらず、http:自分のサイトURL/sitemap.xmlとブラウザで入力すると、普通にサイトマップが表示されるのです。さらに、そのサイトマップの中身も複数のサブサイトマップの集合体となっているということに気が付きます。

すでに、バージョン3で実在するサイトマップを持っている場合は、バージョン4にアップデートすると、実在するサイトマップを削除するようにとの警告がでており、削除するとサーバー上のsitemap.xmlは、sitemap.backup.xmlというファイルにリネイムされています。

なぜ、このような変更を行ったのかは不明ですが、少なくともサーバー上にsitemap.xmlが存在していなくても、Googleのウェブマスターツールにサイトマップを登録することは可能だということです。

この仕様変更の目的について調べてみたところ、

(1)サーバー側のメモリーの負担を軽くする。
(2)サイトマップをサブサイトマップに分けることで、沢山のサイトを登録できるようになる。
(3)サブサイトマップに分割することで、検索速度が速くなる。
(4)サブサイトマップに分割することで、検索エンジンは更新されたサイトだけを含むサブサイトマップを読み込むだけでよくなる。

という理由だそうです。

おそらく、ワードプレスを使用するサイトが増えたため、Googleエンジンへの負担を軽くして、サイト検索をスムーズに行えるように改良をしたのではないかと思われます。