Thursday, July 12, 2012

seo tutorial

আপনি একটা সাইট তৈরী করলেন যেটা অনেক তথ্যবহুল এবং আশা করেছিলেন যে হাজার হাজার ভিজিটর পাবেন,কিন্ত তা পাচ্ছেন না।কারন এখনও একটা গুরত্বপূর্ন কাজ বাকি আছে যেটা আপনার সাইটকে হাজারো ভিজিটর দেবে তা হল সার্চ ইন্জিন অপটিমাইজেশন (SEO)


সার্চ ইন্জিন অপটিমাইজেশন (SEO ) কি?

পূথিবীতে অনেক সার্চ ইন্জিন আছে যেমন সবচেয়ে বিখ্যাত হল গুগল,এরপর আছে ইয়াহু,বিং ইত্যাদি।কেউ যদি বাংলায় এইচটিএমএল শিখতে চায় তাহলে হয়ত সে “এইচটিএমএল টিউটোরিয়াল” লিখে গুগলে সার্চ দেবে কারন সে হয়ত বাংলায় এইচটিএমএল টিউটোরিয়াল আছে এমন কোন ওয়েবসাইটরে ঠিকানা জানেনা।এখন ধরুন আপনার একটা ওয়েবসাইট আছে যেখানে বাংলায় এইচটিএমএল টিউটোরিয়াল আছে।এখন যদি “এইচটিএমএল টিউটোরিয়াল” লিখে গুগলে সার্চ দিলে গুগলের প্রথম পেজে আরও ভাল হবে যদি প্রথম পেজের প্রথম লিংকটাই আপনার সাইটের হয় তাহলে নিশ্চিত থাকতে পারেন যে ঐ ইউজার যে “এইচটিএমএল টিউটোরিয়াল” দিয়ে খুজছিল সে অবশ্যই আপনার সাইটে যাবেই।এই যে একজনের সাইট গুগলে সবার আগে দেখাল অথচ বাংলায় এইচটিএমএল টিউটোরিয়াল আছে এমন বহু সাইট,ব্লগ,ফোরাম ইত্যাদি থাকার পরেও,যে সাইট আগে দেখালো সে সাইটে কিছু কৌশল অবলম্বন করা হয়েছিল এসব কৌশলকে বলা হয় সার্চ ইন্জিন অপটিমাইজেশন (SEO)


সার্চ ইন্জিন অপটিমাইজেশন (SEO) প্রধানত ২ ধরনের

১.অন পেজ (যেটা সাইটের ভিতরেই করা হয় যেমন টাইটেল ট্যাগ,কনটেন্ট,কিওয়ার্ড ইত্যাদি প্রাসঙ্গিক হওয়া )

২.অফ পেজ (যেটা সাইটের বাইরে করা হয় যেমন ব্লগ,ফোরাম পোস্টিং)

ওয়েবকোচবিডি সাইটে আগে অনপেজ SEO টিউটোরিয়াল থাকবে এবং এরপর অফপেজ SEO


এখানে শুধু অর্গানিক সার্চ ইন্জিন অপটিমাইজেশন (Organic SEO) এর টিউটোরিয়াল থাকবে,পেইড সার্চ ইন্জিন অপটিমাইজেশন (Paid SEO) নয়।


পেইড সার্চ ইন্জিন অপটিমাইজেশন: গুগলে সার্চ দিলে মাঝে মাঝে দেখবেন সার্চ রেজাল্টের ডানে বা উপরে ভিন্ন রং (সাধারনত হালকা খয়েরি) কিছু লিংক থাকে (যে শব্দ দিয়ে সার্চ দিয়েছেন সেটা সংশ্লিষ্ট)।এগুলি পেইড লিংক অর্থ্যাৎ এর জন্য গুগলকে অর্থ দিতে হয়েছে।এই ধরনের অপটিমাইজেশনকে পেইড এসইও (Paid SEO) বলে।


অর্গানিক সার্চ ইন্জিন অপটিমাইজেশন: যে লিংকগুলি সার্চ রেজাল্ট পেজে সাধারনভাবে প্রদর্শিত হয় মানে গুগল এগুলি কোন বিশেষ রং দিয়ে হাইলাইট করেনা এগুলি অর্গানিক লিংক।এই ধরনের অপটিমাইজেশনকে অর্গানিক এসইও (Organic SEO) বলে। এটাকে এলগরিদমিক SEO ও বলে।

এটা খুবই গুরত্বপূর্ন একটা ওয়েব পেজের জন্য।ইউজার এবং সার্চ ইন্জিন উভয়কে এটা বলে দেয় যে পেজের মধ্যে কি আছে অর্থ্যাৎ একটা টাইটেল একটা পেজের সরাংশ।আপনার পেজের টাইটেল হতে হবে এমন যাতে এটা আপনার সাইটের আর অন্য কোন পেজের টাইটেলের সাথে মিলে না যায় অর্থ্যাৎ unique এবং নির্ভূল।

সার্চ রেজাল্ট যখন আমরা ব্রাউজারে দেখি তখন পেজ টাইটেল সবার আগে প্রথম লাইনে থাকে।যেমন


seo-title-tag


ইউজার যে কিওয়ার্ড দিয়ে সার্চ করবে সেই কিওয়ার্ডটি যদি সার্চ রেজাল্টে বোল্ড করে দেখায় তাও আবার পুরো পেজ টাইটেলটি,তাহলে আপনার সাইটের ট্রাফিক বহুগুন বেড়ে যাবে।পেজ টাইটেল সবসময় এমন দিবেন যেটার সাথে পেজের কনটেন্টের খুব মিল আছে।খুব বড় টাইটেল দেয়া উচিৎ নয় এতে অনেক অপ্রয়োজনীয় শব্দ টাইটেলে চলে আসে আর খুব বড় টাইটেল হলে গুগল এর সম্পূর্ন নয় বরং কিছু অংশ দেখায়।সবচেয়ে ভাল আপনার পেজ টাইটেল হবে ছোট,প্রাসঙ্গিক এবং তথ্যবহুল।

মেটা () ট্যাগ এর “description” এ পেজে কি আছে তা সম্পর্কে সংক্ষেপে লিখুন।এটা গুগল এবং সকল সার্চ ইন্জিনকে একটা ধারনা দেয় যে এই পেজে কি আছে।এই বর্ননা ২/৩ লাইনের দিতে পারেন।মেটা বর্ননাকে গুগল আপনার ওই পেজটার কনটেন্টের সরাংশ হিসেবে ধরতে পারে।ধরতে পারে এজন্য বলা হয়েছে কারন ইউজার যে কিওয়ার্ড দিয়ে সার্চ করবে সেটার সাথে যদি সরাসরি পেজ কনটেন্টের কোন অংশের সাথে বেশি মিলে যায় তাহলে সেই অংশ গুগল সার্চ রেজাল্টে দেখাতে পারে।


seo meta description


ইউজারের দেয়া কিওয়ার্ড যদি এই সরাংশে (মেটা বর্ননায়) থাকে তাহলে সেটা বোল্ড করে দেখাবে যেমন উপরের ছবিতে দেখুন ইউজার এর “এইচটিএমএল টিউটোরিয়াল” লেখাটি সার্চ রেজাল্টে বোল্ড করে দেখাচ্ছে।এটা ইউজারকে একটা ইঙ্গিত দেয় যে,সে যে জিনিস খুজছে সেটার সাথে পেজটির কতটুকু মিল রয়েছে।তাই এমনভাবে মেটা বর্ননা দিন যাতে যেটা ইউজার সার্চ রেজাল্টে দেখেই যেন মনে করে এই পেজেই আমার প্রয়োজনীয় তথ্য থাকতে পারে।পেজের কনটেন্টের কোন অংশ আবার কপি করে মেটা বনর্নাতে পেস্ট করে দিয়েননা বরং পেজের কনটেন্টের উপর ছোটখাট একটা সারমর্ম লিখে দিন।

প্রতিটি পেজের মেটা বর্ননা যেন ভিন্ন ভিন্ন হয় তানাহলে ইউজার বা সার্চ ইন্জিন যখন একসাথে বহু পেজ দেখবে তখন সমস্যা হবে।(site:http://www.webcoachbd.com এভাবে শুধু একটা সাইটের সব পেজ সার্চ রেজাল্টে দেখা যায়)।আপনার সাইটে যদি হাজার হাজার পেজ থাকে তাহলে প্রতিটি পেজের জন্য আলাদা আলাদা মেটা বর্ননা তৈরী করা জটিল হয়ে পরবে সেক্ষেত্রে পেজের কনটেন্টের উপর ভিত্তি করে অটোমেটিক মেটা বর্ননা তৈরী হবে এধরনের টেকনিক অবলম্বন করতে হবে।


লিংক স্ট্রাকচার খুব সহজ এবং বোধগম্য রাখুন যাতে সার্চ ইন্জিন এবং ইউজার উভয়েরই পড়তে এবং বুঝতে সুবিধা হয়।অনেক সময় দেখা যায় URL এমন থাকে যে বুঝাই যায়না এসময় ই্উজারের কপালে বিরক্তির ভাজ পড়তে পারে।সবচেয়ে ভাল, আপনি আইডি বা অবোধগম্য কোন প্যারামিটার URL এ ব্যবহারের চেয়ে এমন শব্দ জুড়ে দিন যেটা দেখেই যেন পেজ সমন্ধে একটা ধারনা হয়ে যায়।

URL সার্চ রেজাল্টে সবার নিচে(টাইটেল এবং এরপর সরাংশের নিচে)দেখায়।URL এ সেশন আইডি বা অপ্রয়োজনীয় প্যারামিটার ব্যবহার থেকে বিরত থাকুন।যেমন ছবির URL দেখুন এটা একটা খারাপ URL এর উদাহরন এবং SEO Friendly নয়

bad url


বরং URL নিচেরমত হওয়া ভাল।

http://www.webcoachbd.com/php-framework/mvc-structure

URL এ অতিরিক্ত শব্দ ব্যবহার করা থেকে বিরত থাকতে হবে।আরেকটা গুরত্বপূর্ন বিষয় হচ্ছে প্রতিটি পেজের বা কনটেন্টের একটি মাত্র URL রাখা।একই পেজের যদি একাধিক URL থাকে সার্চ ইন্জিন কিন্তু আলাদা আলাদা পেজ মনে করে ফলে র‌্যাংকিংও সেভাবে দিয়ে থাকে ।যদি দেখেন যে আপনার সাইটের একটা পেজের কয়েকটা URL তাহলে ৩০১ রিডাইরেক্ট একটা মেথড আছে এর মাধ্যমে সব URL কে একটা পছন্দনীয় URL এ নিতে পারেন।এই মেথডে htsccess ফাইলের মাধ্যমে এটা করা যায়।এজন্য এপাচি সার্ভারের এই ফাইলটিতে কোড লিখে এই পরিবর্তন আনতে পারেন।আর যদি ৩০১ রিডাইরেক্ট মেথড ব্যবহার না করেন তাহলে ক্যানোনিকাল URL ব্যবহার করতে পারেন।

URL এ ছোট হাতের অক্ষর ব্যবহার শোভনীয়,ছোট বড় হতের একসাথে করলে দেখতেও খারাপ লাগে,আসলে এটা এড়ানো উচিৎ।

হোম পেজ বা মুল পাতা ভিত্তিক নেভিগেশন তৈরী করুন।ইউজার যেন হোম পেজ থেকে আপনার সাইটের সব পেজে যেতে পারে এবং সে যেন বুঝতে পারে যে এখন কোন পেজে আছে।এজন্য breadcrumb এই পদ্ধতি ব্যবহার করুন। যেমন


seo-breadcrumbs


ইউজার যদি URL এর কোন নির্দিষ্ট অংশ মুছে দিয়ে উপরের কোন ডিরেক্টরি বা পেজে যেতে চায় তাহলে যেন যেতে পারে।এখানে যেন 404 error page not found এসব এরর না দেখায়।যেমন ইউজার যদি নিচের লোকেশনে থাকে এবং শেষের oophp টুকু ব্রাউজারের এড্রেসবার থেকে মুছে দেয় তাহলে যেন তার আগের পেজে চলে যায় কোন এরর মেসেজ দেখানো ছাড়াই।

সাইটের নেভিগেশনের জন্য অর্থ্যাৎ এক পেজ থেকে অন্য পেজে যাওয়ার জন্য টেক্সট লিংক ব্যবহার করুন এতে করে সার্চ ইন্জিন আপনার সাইটকে ভাল করে বুঝতে পারে।নেভিগেশন যদি জাভাস্ক্রিপ্ট,ফ্লাশ বা ড্রপডাউন মেনু দিয়ে করেন তাহলে অনেক সার্চ ইন্জিন এই পরিস্থিতিতে হয়রান হয়ে যায় অনেক সার্চ ইন্জিন পারেইনা crawl করতে।


এসইও-সাইটের গুনগত মান উন্নত রাখুন


এতক্ষন যতকিছু আলোচনা করা হল এগুলি সবকিছুর চেয়ে এখন যেটা লিখব তা গুরত্বপূর্ন।আপনার সাইটকে রাখুন গুনগত মানসম্পন্ন যেমন কনটেন্ট বা যেকোন সার্ভিস সবার থেকে আলাদা,সৃজনশীল এবং উন্নত করুন।সবচেয়ে বড় কথা হচ্ছে আপনি সাইট তৈরী করবেন মানুষের জন্য যা হবে উপকারী,সার্চ ইন্জিনের জন্য নয়।আপনার সাইটে যদি ভাল রিসোর্স/কনটেন্ট থাকে তাহলে কোন ইউজার একবার এই সাইটে ঢুকলে দেখবেন যে সে এই সাইট বুকমার্ক দিয়ে রাখবে সাথে অন্যকেও এই সাইটের খবর দিয়ে দিবে।যেমন w3schools সাইটের কথা যদি ধরেন তাহলে দেখবেন বাংলাদেশের এমন কোন ব্লগ,ফোরাম বা ওয়েব ডিজাইন সম্পর্কিত সাইট নেই যেখানে এই সাইটের লিংক নেই্।কারন তাদের কনটেন্টগুলি ভাল এবং উন্নতমানের।এই যে এই সাইটের লিংক সব সাইটে আছে এটা কিন্তু w3schools থেকে কেউ এসে দিয়ে যায়নি,যারা দেয় তাদের কোন অর্থ এই সাইট থেকে দেয়না একমাত্র কারন তাদের গুনগত কনটেন্ট।তাছাড়া মুখে মুখেও ছড়ায়।


কখনই অন্যের সাইট থেকে কিছু কপি করে নিজের সাইটে দিবেননা।বরং সবার আলাদা তবে উপভোগ্য এমনভাবে কনটেন্ট দিন।নতুন কোন সেবা বা আইডিয়া যদি পারেন তাহলে তা প্রয়োগ করতে পারেন।যেমন যদি নতুন কোন ফোরাম বা ব্লগ হয় তাহলে বেশি ইউজার রেজিস্টার করার জন্য প্রথম অবস্থায় এমন ঘোষনা দিতে পারেন,যে এই ব্লগ বা ফোরামে রেজিস্ট্রেশন করবে তাদের টি শার্ট উপহার দেয়া হবে বা কেউ যদি এই সাইটের লিংক ফেসবুক বা টুইটারে শেয়ার করে বা নিজ প্রোফাইলে লিংক দেয় তাহলে তার যতগুলি ফ্রেন্ড এড করা আছে তত টাকা মোবাইলে ফ্লেক্সি দেয়া হবে।


সাইটের নামে ফেসবুকে পেজ খুলতে পারেন,এতে প্রচুর ট্রাফিক পাওয়া যায়।একজন এই পেজ লাইক করলে তার যত ফ্রেন্ড আছে সবাই এই খবর পেয়ে যায় এভাবে ছড়ায়।


সুন্দর করে সাজিয়ে আর্টিকেল লিখুন,যেখানে শিরোনাম থাকবে আর যত পারেন প্যারা বেশি দিন এতে করে পড়ার ধের্য্য বাড়ে।আর্টিকেল বড় না করে ছোট ছোট রাখুন-লক্ষ্য করে দেখবেন w3schools বা আমরাও আর্টিকেল ছোট রাখার চেষ্টা করেছি।অপরদিকে tizag সাইটে দেখবেন অনেক ভাল জিনিস আছে কিন্তু আর্টিকেলগুলি এতই বড় যে সাইটে ঢুকতেই ইচ্ছা করেনা বরং পড়তে বিরক্ত লাগে।অথচ অনেক ক্ষেত্রে w3schools এর চেয়ে tizag এ বেশি তথ্য আছে তবু এই সাইটের নামই অনেকে জানেনা।


লেখা একটু বড় রাখুন যেমন ইংরেজি সাইট হলে ১৩/১৪ ফন্ট আর বাংলা হলে ১৫/১৬,লেখা ছোট ছোট হলে ইউজার আর সাইটে ঢুকতে চায়না কারন পড়তে চোখ যেন বের করে নিয়ে আসতে হয়।

এনকর টেক্সট হচ্ছে একটা ক্লিকযোগ্য টেক্সট যেটা ইউজার দেখে।এখানে ইউজার ক্লিক করে একটা নতুন পেজে যেতে পারে।এটা এনকর ট্যাগের মধ্যে থাকে এনকর টেক্সট


এই এনকর টেক্সট এমন দেয়া উচিৎ যেটা দেখে ইউজার এবং সার্চ ইন্জিন যেন বুঝতে পারে যে এই লিংকে ক্লিক করে যে পেজে যাব সেই পেজে কি ধরনের লেখা/আর্টিকেল/কনটেন্ট আছে।


যেমন ধরুন এই সাইটের মুল পাতায় নিচে দুটি লিংক আছে,লক্ষ্য করলে দেখবেন লিংক দুটির লেখাগুলি পড়লেই বোঝা যাচ্ছে যে এখানে ক্লিক করলে যে পেজ আসবে সেখানে কি থাকতে পারে।“নতুনদের জন্য নির্দেশনা” এভাবে না দিয়ে যদি দিতাম “এখানে ক্লিক করুন” তাহলে এটা SEO friendly হতনা।এনকর টেক্সট এমন দিবেননা যেটার সাথে লিংকড (ক্লিক করলে যে পেজে যাবে) পেজের কোন মিলই নেই।বরং এমন এনকর টেক্সট হওয়া ভাল যেটা লিংকড পেজটির সরাংশ হয় অল্প কয়েকটি শব্দের মধ্যেই।


একটা প্যারাগ্রাফ লিখে পুরোটার উপর লিংক দিয়ে দিলেন এটা ভালনা।লিংকগুলিকে সিএসএস দিয়ে রং একটু ভিন্ন দিন যাতে ইউজার সাধারন টেক্সট আর লিংক টেক্সটের মধ্যে পাথর্ক্য করতে পারে বা বুঝতে পারে যে এটা একটা লিংক।

আপনার সাইটে কোন ছবি দিলে অবশ্যই alt এট্রিবিউট ব্যবহার করে ছবি সম্পর্কিত বর্ননা দেবেন।কোন সময় যদি ছবি লোড না হয় বা দেরি হয় তখন alt এট্রিবিউটের লেখাটি ছবির জায়গায় দেখাবে।যখন ছবিকে লিংক হিসেবে ব্যবহার করেন তখন এই alt টেক্সট এনকর টেক্সটের কাজ করে।ছবির মাধ্যমে খুব বেশি লিংক দেয়া ভাল নয়,বরং যদি দিতেই হয় তাহলে alt এট্রিবিউট এ তার বর্ননা দিয়ে দেবেন এতে সার্চ ইন্জিন ওই ছবিকে পড়তে পারে।

নিচের ছবিতে দেখুন ছবি আসতে দেরি হচ্ছে তাই ছবির জায়গায় একটা লেখা দেখাচ্ছে,এটা alt ট্যাগে লেখা ছিল।


seo-image


যেকোন ফাইল প্রাসঙ্গিক ডিরেক্টরিতে রাখুন যেমন ছবিগুলি images ডিরেক্টরি,অডিও audio ডিরেক্টরি এভাবে সবগুলি।ছবি ব্যবহারের সময় বহুল ব্যবহৃত ছবির ফরমেট ব্যবহার করুন যেমন .jpg,.gif,.BMP

,

আমরা জানি যে মোট ৬ টি হেডিং ট্যাগ আছে h1 থেকে h6 পর্যন্ত।এই ট্যাগের মধ্যেকার লেখাগুলি সাধারন লেখার চেয়ে একটু বড় করে দেখায়।আপনি যখন কোন আর্টিকেল লিখবেন তখন গুরত্বপূর্ন লেখাগুলিকে হেডিং ট্যাগের মধ্যে রাখুন।একটা আর্টিকেলে যদি ৪/৫ টি প্যারাগ্রাফ থাকে তাহলে প্রতিটি প্যারাগ্রাফের একটি করে শিরোনাম এই হেডিং ট্যাগের মধ্যে রাখতে পারেন,এতে করে ইউজার এবং সার্চ ইন্জিন ধারনা করতে পারে যে এই প্যারাগ্রাফে কি বিষয়ে লেখা আছে।এমন হেডিং দেয়া কখনই ঠিক হবেনা যার সাথে প্যারাগ্রাফটির কোন মিল নেই।

হেডিং সংক্ষিপ্ত এবং প্রাসঙ্গিক হওয়া ভাল।পুরো একটা প্যারাগ্রাফকেই হেডিং ট্যাগের মধ্যে রাখা একটা বাজে কাজ।একটা পেজে খুব বেশি হেডিং ব্যবহার করাও ভাল নয়।ধরুন একটা পেজে ২০টি লাইন আছে তার মধ্যে ১০ টি লাইন কে হেডিং করে দিলেন,এধরনের অতিরিক্ত হেডিং দেয়া থেকে বিরত থাকুন।

“robots.txt” ফাইল এমন একটি ফাইল যেটা সার্চ ইন্জিনকে বলে যে,সার্চ ইন্জিন একটা সাইটের কোন কোন্ পেজ crawl করবে আর কোন কোন পেজ crawl করবেনা।এই robots.txt ফাইলটি রুট ফোল্ডারে থাকে।


আপনার সাইটের কিছু পেজ সার্চ রেজাল্টে না দেখানো হোক আপনি হয়ত এটা চাইতে পারেন।কারন হতে পারে সেই পেজগুলির কাজ এখনও শেষ হয়নি বা অন্য যেকোন কারন।এজন্য আপনি একটি robots.txt ফাইল তৈরী করে সেখানে ঠিক করে দিতে পারেবন যে কোন্ কোন্ পেজ সার্চ ইন্জিন crawl করবেনা।আপনার যদি সাবডোমেইন থাকে এবং এর কিছু পেজ যদি সার্চ রেজাল্টে না দেখানো হোক এটা চান তাহলে এটার জন্য আলাদা একটা robots.txt ফাইল তৈরী করতে হবে।robots.txt ফাইলটি তৈরীর পর রুট ফোল্ডারে আপলোড করতে হবে।


robots.txt ফাইল তৈরী

robots.txt ফাইল দিয়ে সার্চ ইন্জিনের বট,ক্রাউলার এবং স্পাইডার সাইটের কোন্ কোন্ পেজ দেখবে এবং কোন্ কোন্ পেজ দেখবেনা এসব নিয়ন্ত্রন করা যায়।এই নিয়ন্ত্রনের পদ্ধতিকে বলা হয় রোবটস এক্সক্লুসন প্রটোকল (Robots Exclusion Protocol) বা রোবটস এক্সক্লুসন স্টান্ডার্ড (Robots Exclusion Standard) .এই ফাইল তৈরীর আগে এখানে ব্যবহৃত কিছু চিহ্ন চিনে নেয়া যাক

Robots.txt Protocol - Standard Syntax & Semantics

অংশ/চিহ্ন


বর্ননা

User-agent:


নির্দেশ করে রোবট(সমূহ)কে

*


Wildcard. User-agent: * এটার অর্থ সব রোবট

disallow:


প্রতিটি লাইন disallow: দিয়ে শুরু হয়।এরপরে আপনি / দিয়ে URL path ঠিক করে দিতে পারেন।এতে করে ওই path বা ফাইল বা ওই পেজ আর রোবট ক্রাউল করবেনা।যদি কোন path না দেন অথ্যাৎ ফাকা থাকে তাহলে disallow কাজ করবে allow এর।

#


কমেন্ট করার জন্য।এটার পরে কোন লাইন এজন্য লেখা হয় যাতে এই লাইনটি পরে বোঝা যায় যে নিচের কোডগুলি কি বিষয়ক হবে।


Disallow ফিল্ড আংশিক বা পূর্নাঙ্গ URL উপস্থাপন করতে পারে।/ চিহ্নের পর যে path উল্লেখ থাকবে সেই path রোবট ভিজিট করবেনা।যেমন

Disallow: /help

#disallows both /help.html and /help/index.html, whereas


Disallow: /help/

# would disallow /help/index.html but allow /help.html


কিছু উদাহরন

সব রোবট অনুমোদন করবে করবে সব ফাইল ভিজিটের জন্য (wildcard “*” নির্দেশ করে সব রোবট)

User-agent: *

Disallow:


সব রোবট কোন ফাইল ভিজিট করবেনা

User-agent: *

Disallow: /


গুগলবট এর শুধু ভিজিটের অনুমোদন থাকবে বাকি কেউ ভিজিট করতে পারবেনা

User-agent: GoogleBot

Disallow:



User-agent: *

Disallow: /


গুগলবট এবং ইয়াহুস্লার্প এর শুধু ভিজিটের অনুমোদন থাকবে বাকি কারো থাকবেনা

User-agent: GoogleBot

User-agent: Slurp

Disallow:



User-agent: *

Disallow: /


কোন একটা নির্দিষ্ট বটের ভিজিট যদি বন্ধ করতে চান তাহলে

User-agent: *

Disallow:



User-agent: Teoma

Disallow: /


এই ফাইলটি দ্বারা যদি আপনার সাইটের কোন URL বা পেজ crawl করা বন্ধ করে দেন তারপরেও কিছু সমস্যার কারনে এই পেজগুলি কোথাও কোথাও দেখাতে পারে।যেমন রেফারেল লগ এ URL গুলি দেখাতে পারে।তাছাড়া কিছু কিছু সার্চ ইন্জিন আছে যাদের এলগরিদম খুব উন্নত নয় ফলে এসব ইন্জিন থেকে যখন স্পাইডার/বোট crawl করার জন্য পাঠায় তখন এরা robots.txt ফাইলের নির্দেশনাকে উপেক্ষা করে আপনার সব URL crawl করে যাবে।


এসব সমস্যা এড়াতে আরেকটা ভাল পদ্ধতি হল এই সমস্ত কনটেন্টকে htaccess ফাইল দিয়ে পাসওয়ার্ড বা বন্ধ করে রাখা।


rel=”nofollow” এর ব্যাপারে সতর্ক থাকুন

কোন লিংকে rel এট্রিবিউট এ “nofollow” সেট করে দিয়ে গুগল বা সার্চ ইন্জিনকে বলে দিতে পারেন যে এই সমস্ত লিংক যেন সে crawl না করে।যদি আপনার সাইট কোন ব্লগ বা ফোরাম হয় যেখানে মন্তব্য করা যায় তাহলে কমেন্ট অংশকে এভাবে nofollow করে দিয়ে রাখতে পারেন।এতে করে আপনার ব্লগ বা ফোরামের খ্যাতি ব্যবহার করে নিজের সাইটের rank বাড়াতে পারবেনা।আবার অনেক সময় অনেকে আপত্তিকর সাইটের ঠিকানা আপনার সাইটে দিতে পারে ফলে যা আপনি চান না। এছাড়াও এমন সাইটের লিংক দিতে পারে যেটা গুগলের কাছে spammer, এতে করে আপনার সাইটের খ্যাতি নষ্ট হবে।

Comment spammer

প্রতিটি লিংকে nofollow না দিয়ে robot মেটা ট্যাগেও nofollow দিলে একই কাজ করবে।





Brandon's Baseball Cards - Buy Cards, Baseball News, Card Prices









সব সার্চ ইন্জিনে সাইটের URL সাবমিট করা


বিখ্যাত সব সার্চ ইন্জিনে আপনার সাইটের ইউআরএল (URL) সাবমিট করুন

গুগলে সাইটের URL সাবমিট করার জন্য http://www.google.com/addurl/ এখানে যান,নিচে দুটি বক্স আসবে URL বক্সে সাইটের URL এবং comments বক্সে সাইট সম্পর্কে সংক্ষিপ্ত বর্ননা দিয়ে Add URL বাটনে ক্লিক করলেই গুগল আপনার সাইট crawl করা শুরু করবে।


url submission


ইয়াহুতে URL http://www.addurlyahoo.com/siteekle.asp এখানে গিয়ে category,subcategory সিলেক্ট করে URL সাবমিট করুন।


বিং সার্চ ইন্জিনে সাইট সাবমিটের জন্য http://www.bing.com/webmaster/SubmitSitePage.aspx এ গিয়ে সাইটের ঠিকানা টাইপ করে সাবমিট বাটনে ক্লিক করুন।


গুগল ওয়েবমাস্টার টুল টিউটোরিয়াল


ওয়েবমাস্টারদের গুগল ওয়েবমাস্টার টুল এর ব্যবহার জানা অনেকটা অপরিহার্য।এখানে যেকোন সাইট যোগ করে দিতে পারেন একদম বিনামুল্যে।গুগলে আপনার সাইটের পেজগুলি কিভাবে দেখাবে এ বিষয়ে গুগল ওয়েবমাস্টার টুল বিস্তারিত বর্ননা প্রদান করে,এছাড়াও আরও অনেক কাজ আছে নিচে বিস্তারিত দেয়া হল

http://www.google.com/webmasters/tools

প্রথমে এই ঠিকানায় যেতে হবে,এখানে গেলেই আপনার জিমেইল একাউন্ট দিয়ে সাইন ইন করতে বলবে।আপনার যদি জিমেইল একাউন্ট না থাকে তাহলে একটা খুলে নিন কারন জিমেইল একাউন্ট ছাড়া গুগল ওয়েবমাস্টার টুল এর এই সেবা (সম্পূর্ন বিনামুল্যের)গ্রহন করতে পারবেননা।আর যদি থাকে তাহলে এখানে ইউজার নাম এবং পাসওয়ার্ড দিয়ে সাইন ইন করে ভিতরে ঢুকুন।

এবার গুগল ওয়েবমাস্টার টুলে আপনি এক বা একাধিক সাইট যুক্ত করতে পারেন।এজন্য Add a Site নামের বাটনে ক্লিক করে আগত বক্সে আপনি যে সাইটটি যোগ করতে চান তার নাম দিয়ে Continue বাটনে ক্লিক করুন।


webmaster tool-add a site


এবার Verify ownership নামের একটি পেজ আসবে এখান থেকে গুগলকে বুঝাতে হবে যে ,সাইটটির প্রকৃত মালিক আপনি।সাইটের মালিকানা প্রমান করতে গুগল এখানে ৪টি পদ্ধতি অনমোদন করে,আপনি যেকোনটি ব্যবহার করে এটা প্রমান করতে পারেন।


এরমধ্যে ১ম পদ্ধতিটি খুব সহজ,Upload an HTML file to your server এই চেকবক্সটি চেক করে একটু নিচে স্ক্রল করে গিয়ে দেখুন একটা এইচটিএমএল ভেরিফিকেশন কোড এর ডাউনলোড লিংক আছে,ছোট এই ফাইলটি ডাউনলোড করে আপনার সাইটের রুট ফোল্ডারে আপলোড করুন।সিপ্যানেল যদি ব্যবহার করেন তাহলে আপনার public_html এ ফাইলটি আপলোড করুন।

এবার Verify ownership পেজে এসে http://www.webcoachbd.com/googlesomething.html এই ধরনের একটা লিংক আছে এখানে ক্লিক করে ফাইলটি আপলোড নিশ্চিত করুন এবং শেষে verify বাটনে ক্লিক করে এই পর্ব শেষ করুন।
এসইও-ওয়েবমাস্টার টুল ড্যাশবোর্ড


ভেরিফাই শেষ করলে এই ধরনের একটা পেজ আসবে,এখান থেকে আপনার সাইটটির লিংকের উপর ক্লিক করে ড্যাশবোর্ডে এ যান।


webmaster tool-dashboard


ড্যাশবোর্ডে বিভিন্ন ধরনের তথ্যের সারমর্ম থাকে যেমন Search queries এখানে আপনার সাইট খোজার জন্য গুগলে কোন কোন্ শব্দ ব্যবহার করা হয় এসব শব্দের তালিকা থাকে।

Crawl errors এখানে আপনার সাইট ক্রাউল করতে কোন সমস্যা হয়েছে কিনা এসব তথ্য থাকে।

Links to your site এখানে আপনার সাইটের লিংক আর কোন কোন সাইটে আছে এসব সাইটের তালিকা থাকে।

Keywords এখানে গুগলবট আপনার সাইট ক্রাউলিং এর সময় কোন শব্দগুলি বেশি পায় সেসব শব্দের তালিকা থাকে।

Sitemaps এখানে সাইটম্যাপ সাবমিট করেছেন কিনা বা করলে সাইটম্যাপের কতটি URL গুগলের ডেটাবেসে নেয়া হয়েছে ইত্যাদি তথ্য থাকে।

গুগল ওয়েবমাস্টার টুল-ড্যাশবোর্ড মেনু টিউটোরিয়াল


ড্যাশবোর্ডের বামদিকে Site Configuration মেনুর অধীনে প্রথম সাবমেনু sitemap.এখান থেকে গুগলে সাইটম্যাপ সাবমিট করতে হয়।এছাড়া এখানে সাইটম্যাপ সাবমিট করেছেন কিনা বা করলে সাইটম্যাপের কতটি URL গুগলের ডেটাবেসে নেয়া হয়েছে ইত্যাদি তথ্য থাকে।নতুন একটা সাইটম্যাপ সাবমিট করতে Submit a sitemap বাটনে ক্লিক করুন এতে একটি বক্স আসবে এখানে আপনার সাইটম্যাপটি যেখানে আছে তার ঠিকানা লিখে Submit Sitemap বাটনে ক্লিক করুন।উদাহরনস্বরুপ webcoachbd সাইটের কথা বিবেচনা করছি,এখানে আমি স্লাশ চিহ্নের পর sitemap.xml দিয়েছি কারন আমার সাইটের সাইটম্যাপটি রুট ফোল্ডারে আছে।


sitemap submission


আমি আগেই সাইটম্যাপ সাবমিট করেছি তাই উপরে দেখুন Sumitted URLs এ দেখাচ্ছে যে আমি ২০০ টি URL সাবমিট করেছিলাম এবং এখান থেকে গুগলের ডেটাবেসে ১৯৯ টি সেভ করা হয়েছে।


সাইটম্যাপ তৈরী টিউটোরিয়াল


গুগল থেকে এক্সএমএল সাইটম্যাপ সাবমিট করার জন্য তারা পরামর্শ দেয় এতে তারা আপনার সাইট সম্পর্কে একটা পরিষ্কার ধারনা পায়।একটা এক্সএমএল সাইটম্যাপ তৈরী করা খুব সহজ,তৈরী করে গুগলে সাবমিট করলে মুহুর্তেই গুগল এটা ডাউনলোড করে এবং গুগলবট এলগরিদম অনুযায়ী ক্রাউল করে বিভিন্ন তথ্য প্রদর্শন করে,এই প্রসেসটার জন্য কয়েকদিন লাগতে পারে।


সাইটম্যাপ তৈরীর সময় প্রতিটি URL এর কয়েকটি জিনিস এক্সএমএল ট্যাগ দিয়ে উল্লেখ করে দিতে হয় যেমন গুরত্ব (Priority),সর্বশেষ কবে পেজটি পরিবর্তন করেছেন (Last modified date),পেজটি কত ঘনঘন পরিবর্তন হয় বা করবেন (change frequency),নিচে একটি সাইটম্যাপের নমুন দেয়া হল এটাতে নিজের সাইটের সব URL ঢুকিয়ে নিজের মত করে পরিবর্তন করে গুগল ওয়েবমাস্টার টুলে সাবমিট করতে পারেন।

1.
2.
3.http://www.webcoachbd.com/2011-02-16weekly1.00
4.http://www.webcoachbd.com/forum2011-01-20daily1.00
5.


উপরের নমুনা ম্যাপের প্রথম দুই লাইন শুধু কপি করে কোন এডিটরে (যেমন নোটপ্যাড++) পেস্ট করে দিন,এরপরের লাইনগুলির ব্যাখ্যা নিচে

1.
2.

(এখানে শুধু একটি বিষয় খেয়াল রাখতে হবে যে, এট্রিবিউট সহ ট্যাগটি সব URL লেখার শেষে এই ট্যাগ দিয়ে শেষ করতে হবে।যেমন আমি নমুনা সাইটম্যাপে দেখুন দুটি URL এর একটি সাইটম্যাপ তৈরী করেছি তাই URL দুটির শেষে
ট্যাগ দিয়ে শেষ করেছি)

ব্যাখ্যা

এর ভিতরে একটা URL এর জন্য সব এক্সএমএল ট্যাগগুলি থাকবে

এখানে URL অর্থ্যাৎ পেজটির ঠিকানা

এখানে থাকবে পেজটি সর্বশেষ কবে পরিবর্তন করেছেন

পেজটি কত ঘনঘন পরিবর্তন করবেন সেই তথ্য

একটা সাইটম্যাপের গুরত্বপূর্ন অংশ নিচেরটুক

1.http://www.webcoachbd.com/2011-02-16weekly1.00

এখানে এর ভিতর আমার সাইটের হোমপেজ এর ঠিকানা আছে আপনি আপনার সাইটের ঠিকানা দিয়ে দিন এভাবে আপনার সাইটে যতগুলি পেজ আছে সবগুলির URL একটা একটা করে কপি করে প্রতিবার উপরের অংশের এর ভিতর বসিয়ে দিন।আপনার সাইটে যদি ৫০০ টা পেজ থাকে এবং এই ৫০০ পেজের জন্য ৫০০ টা URL থাকে তাহলে ৫০০ বার এই অংশ (উপরের কোডটুকু) কপি করুন এবং URL গুলি বসিয়ে দিন।

*গুগল ৫০০০০ এর বেশি এবং ১০ মেগাবাইটের চেয়ে বড় সাইটম্যাপ নেয়না।যদি সাইট এতই বড় হয় তাহলে ছোট ছোট কয়েক ভাগ করে কয়েকটা সাইটম্যাপ সাবমিট করতে পারবেন।

এর ভিতর দেয়ার মত কয়কটা প্যারামিটার আছে।

never=যদি একটা পেজ তৈরী পর কখনই পরিবর্তন না করেন তাহলে এটা দিতে পারেন

yearly=যদি পেজটি প্রতি বছরে একবার পরিবর্তন করেন

monthly=যদি প্রতি মাসে পেজটি একবার পরিবর্তন করেন

weekly=যেমন আমি weekly দিয়েছি অর্থ্যাৎ আমি আমার হোমপেজ সপ্তাহে একবার পরিবর্তন করি

daily=যদি পেজটি প্রতিদিন পরিবর্তন করেন বা হয়

hourly= যদি পেজটি প্রতি ঘন্টায় ঘন্টায় পরিবর্তন হয় বা করেন

always=যদি পেজটি প্রতিনিয়তই পরিবর্তন করেন বা হয়

এর ভিতর পেজটির গুরত্ব বোঝানোর জন্য সংখ্যা দেয়া হয়

1.0 যদি দেন তাহলে ধরা হবে এই পেজটি সবচেয়ে গুরত্বপূর্ন পেজ

0.1 দিলে ধরবে সবচেয়ে কম গুরত্বপূর্ন

এভাবে দিতে পারেন 0.75,0.50,0.25 ইত্যাদি।


সাইটম্যাপ তৈরীর সফটওয়ার এবং সাইট

সাইট যদি অনেক বড় হয় তাহলে এভাবে হাতে তৈরী করা সময়সাপেক্ষ এবং বিরক্তিকর,এজন্য কিছু সাইট এবং সফটওয়ার আছে যারা বিনামুল্যে আপনার সাইটের সাইটম্যাপ তৈরী করে দেবে।আপনি শুধু সাইটের হোমপেজটি বক্সে লিখে এন্টার দিবেন ব্যাস কয়েকমিনিটেই সফটওয়ার/সাইট আপনার সাইটম্যাপ হাজির করে ফেলবে।এমন একটা সাইট

http://www.xml-sitemaps.com/

সাইটম্যাপ তৈরীর একটা সফটওয়ার নিচের লিংক থেকে ডাউনলোড করতে পারেন

http://gsitecrawler.com/en/download/

গুগল ওয়েবমাস্টার টুল- ক্রাউলার একসেস লিংক


সাইটম্যাপ লিংকের পর গুগল ওয়েবমাস্টারে রয়েছে ক্রাউলার একসেস লিংক।


crawler access link


আপনি যদি চান আপনার সাইটের কোন অংশ গুগল বা অন্য কোন সার্চ ইন্জিন ক্রাউল না করুক তাহলে robot.txt ফাইল ব্যবহার করে করতে পারেন,এটা তৈরীর পদ্ধতি আগে দেখিয়েছি।গুগল ওয়েবমাস্টার টুলে আপনি এই robot.txt ফাইল পরীক্ষা করে দেখতে পারেন।Generate robot.txt লিংকে ক্লিক করে নতুন robot.txt ফাইল তৈরী করতে পারেন।আর Remove URL লিংকে ক্লিক করে গুগল সার্চ রেজাল্টে দেখায় এমন কোন পেজ সরিয়ে ফেলতে পারেন (হতে পারে এমন কোন পেজ আপনার সাইটে আগে ছিল এখন নেই সেক্ষেত্রে এটা কার্যকরী)

No comments:

Post a Comment