دوربین مداربسته / اخبار / تجهیزات حفاظتی /نصب دوربین مداربسته

فناوری های وب

    نظر

فناوری های وب به حوزه ای اشاره دارد که منجر به توسعه روز افزون فضای وب و برنامه نویسی تحت وب می شود. تحول و تغییرات مداوم قاعده تمام علوم بشری است و به همین دلیل است که  باید به روز باشید تا آن کاری که انجام می دهید از کیفیت لازم برخوردارشود. توسعه دهندگان وب نیز هر روز قسمتی از زمان خود را به مطالعه در خصوص تغییر و تحولات تکنولوژی اختصاص می دهند تا با تکنیک ها و آخرین فناوری های روز حوزه خود آشنایی کاملی پیدا کنند. ما در این مطلب می خواهیم بعضی از مفاهیم اولیه که در علم برنامه نویسی وبسایت استفاده می شود را به صورت کوتاه برای شما تعریف کنیم.

در یک چارچول کلی می توان گفت که توسعه یک برنامه یا یک وب سایت به سه زبان برنامه نویسی نیاز دارد: HTML و CSS و جاوا اسکریپت.اما قبل از هرچیز بگذارید ببینیم فناوری وب چیست؟

فناوری های وب

فناوری وب چیست؟

کامپیوترها برای ارتباط با یکدیگر و همچنین نمایش محتواهای خاص به کدها و زبان های نشانه گذاری شده ای نیاز دارند. بنابراین یک سری از زبان ها و کدها به صورت دائما گسترش یابنده ای در دنیا برای ارتقا ارتباط میان کامپیوتر ها پایه ریزی شده است.

مرورگرها

در یک فرآیند استاندارد شده جهانی، مرورگرهای نصب شده بر روی دستگاههای مختلف با سرورها مرتبط می شوند و اطلاعاتی که کاربردخواست کرده است را به شیوه ای که قابل نمایش باشد از سرور دریافت می کند. به عبارتی دقیق تر مرورگرها مفسرهای نمایش دهنده دیتاهای صفر و یکی هستند که در سرورهای مختلف تجمیع می شوند. در حال حاضر محبوب ترین مرورگرهای دنیا گوگل کروم و فایرفاکس است.

زبان های برنامه نویسی

همانطور که قبلاً گفتیم کامیپوتر ها برای برقراری ارتباط با یکدیگر از زبان های برنامه نویسی استفاده می کنند. زبان های برنامه نویسی گوناگونی وجود دارد. جاوا اسکریپت زبانی است که بین تمام مرورگر ها مشترک می باشد.

زبان های برنامه نویسی متنوعی در حال حاضر توسط متخصصین و مهندسین برنامه نویسی گسترش پیدا کرده است، جاواسکریپت و PHP و پایتون سه زبان مهم در دنیاست که هر کدام قسمتی از مشکلات ارتباطات بین کامپیوتر ها را حل می کنند. برای مثال زبان برنامه نویسی پایتون بیشتر برای اینترنت اشیا کاربرد دارد و PHP یک زبان برنامه نویسی بسیار منعطف است که فریم ورک هایی مانند لاراول برای توسعه فضای وب از دل آن بوجود آمده است.

 CSS و HTML

HTML و CSS رابط هوشمند شده میان مرورگر و کاربران انسانی است. مرورگرها به وسیله این دو زبان برنامه نویسی شده خواسته های کاربران را به صورتی قابل نمایش درمی آورند. CSS  در یک تعریف جزیی تر عناصر HTML را بر روی صفحه نمایش شرح می دهد.

HTTP

با استفاده از این پروتکل، هر وب سایت می تواند به مرورگر ها دست یابد. این پروتکل وب سایت را از سرور گوگل درخواست می کند و سپس با استفاده از HTML و CSS و جاوا اسکریپت یک وب سایت پاسخی دریافت می کند.

با استفاده از این پروتکل هر وب سایت می تواند به مرورگرها متصل شود. در یک فرآیند طراحی شده وبسایت ها با استفاده از این پروتکل درخواست های خود را به گوگل می فرستند و سپس با استفاده از CSS و HTML و جاوا این پاسخ ها به کاربر نمایش داده می شود.

API

API را رابط برنامه نویسی برنامه ها ی کامپیوتری تعریف می کنند. توسعه دهندگان وب با استفاده از این قابلیت بدون به اشتراک گذاشتن کدها می توانند از برخی قابلیت های برنامه و یا وبسایتی خاص استفاده کنند. بهترین و معروف ترین نمونه های API توسط گوگل، فیسبوک و توییتر برای خدمات وبسایتهایشان ساخته شده اند.

هوش مصنوعی

هوش مصنوعی آینده بشریت را دگرگون خواهد کرد. از جنبه های ترسناک آن که بگذریم بسیاری از خدمات امروز که توسط انسان انجام می شود در آینده به راحتی توسط هوش مصنوعی قابل اجرا خواهد بود. کم از کامپیوتر ها برای درمان بیماریها، کاهش اثرات مخرب زیست محیطی یا پیش بینی احتمالات مختلف یک اتفاف و …. از جمله مواردی است که ذهن بسیاری از توسعه دهندگان و مهندسی نرم افزار را به خود مشغول کرده است.

نکته پایانی

کاملا مشخص است که طراحی سایت و توسعه وبسایت ها یک شغل فوق حرفه ای به حساب می آید که باید در انتخاب شرکت طراحی سایت دقت لازم را داشته باشید. اگر شما هم تمایل پیدا کردید که برای شرکت خود طراحی سایت انجام دهید، توصیه می کنم ابتدا مقالات طراحی سایت شرکتی و طراحی سایت فروشگاهی ما را مطالعه کنید


internal link یا لینک داخلی چیست؟

    نظر
  • گاهی اوقات نیاز دارید در دل یک مقاله، مطلب دیگری را که مرتبط با همین مقاله هست را به خواننده ارائه نمایید. به صورتی که بازدیدکننده یا خواننده ی مقاله ی شما برای دیدن مطالب مرتبط مورد نظر شما نیازی به خروج از سایت نداشته باشند. در این زمان از لینک داخلی استفاده کنید.

 

لینک داخلی چیست؟

لینک داخلی به لینک هایی گفته میشوند که به صفحاتی ارجاع داده میشوند که با آدرس خود سایت یکی هستند. یعنی آدرس کلی منبع و مقصد یکی هستند. لینک ها داخلی از یک صفحه ی یک دامنه به صفحه ی دیگری از همان دامنه میروند.

 

ویژگی های لینک های داخلی

بحث را با موضوعاتی که کاملا ثابت شده برای لینک های داخلی هستند شروع می کنیم. منظور ما از لینک های داخلی لینکی است که در سایت وجود دارد و به صفحه دیگری از سایت خودمان هدایت می شود. این گونه لینک ها معمولا به شکل انکر تکست هستند و عبارت نوشته شده در انکر تکست معمولا نام صفحه لینک شده یا عبارتی با همان مضمون می باشد.

لینک های داخلی به کاربران کمک می کند تا از یک صفحه به صفحه دیگر سایت منتقل شوند و از دیگر صفحات سایت نیز بازدید کنند. در زمان های ابتدایی پیدایش اینترنت این مسئله از اهمیتی برخوردار نبود اما امروزه به خاطر مسئله سئو سایت، لینک های داخلی از اهمیت ویژه ای برخوردار شده اند. همچنین نوع رفتار موتورهای جستجو نیز نسبت به لینک های داخلی و خارجی متفاوت می باشد. با این حال لینک های داخلی در رتبه و اعتبار سایت دارند و همچنین در نوع آنالیز سایت توسط موتورهای جستجو تاثیر گذارند.

1- انکر تکست در واقع محتوای لینک داخلی خود را در کوتاه ترین عبارت ممکن بیان می کند و به بیننده یک تصور اولیه از محتوای داخل صفحه لینک شده را می دهد.

2- هدف لینک ها نیز از یک جا به جای دیگر مهم است.

3- نوع استفاده لینک نیز از اهمیت برخوردار است و در صورتی که لینک، دارای اشتباهات املایی باشد و یا صفحه مورد نظر دارای خطا باشد، مشکلاتی را برای سئو ایجاد می کند. همچنین در مواردی که سعی می شود که یک انکر تکست برای گرفتن رنک بالاتر در همه جای سایت به شکل تکراری استفاده گردد نیز قوانین سختگیرانه ای از طرف گوگل وجود دارد. گوگل از این کار بسیار متنفر است و در صورت مشاهده، آن سایت را جریمه می کند.

استفاده از این گونه لینک سازی ها که اغلب در فوتر یا هدر وبسایت مشاهده می شود کار خوبی نیست و از ایندکس شدن صفحات یا گرفتن رنگ خوب در موتور جستجوی گوگل جلوگیری می کند. همچنان که گوگل در جریمه کردن این گونه فعالیت ها سخت گیر است، در برگردندان تغییر وضعیت به حالت طبیعی نیز بسیار منعطف می باشد. کافیست که این لینک های تکراری را از صفحات سایت حذف کرده تا رفتار متفاوت گوگل را مشاهده کنید.

4- اولین لینک صفحه، طبق آزمایش هایی که از طرف کارشناسان انجام شده است، مهمترین آن می باشد. در صورتی که در یک صفحه چند لینک با انکر تکست های متفاوت به یک لینک مشخص وجود داشته باشد، طبق تجربه صرفا اولین انکر تکست برای گوگل مهم است و معمولا به بقیه انکر تکست ها توجهی نمی کند.

 

 

5- اهمیت صفحه لینک شده نیز از فاکتورهای مورد بحث می باشد. اگر در سایت شما صفحاتی وجود دارد که دارای بک لینک های بسیار زیاد از سایت های دیگر است، به همان نسبت نیز می بایست در دادن لینک های داخلی به آن صفحات نیز توجه کنید. گرفتن بک لینک از سایت های معتبر رتبه صفحه را بالا می برد و لینک دادن داخلی به آن نیز به کاربران کمک می کند تا دسترسی آسانتری به این صفحات پر ارزش داشته باشند و وجود این ساختار و ایجاد تعادل در بین لینک های داخلی و بک لینک ها، ارزش آن صفحات را دو چندان می کند و یکی از سیگنال های بسیار مثبت برای موتورهای جستجو برای دادن رنک بالاتر به این صفحات است.

6- ارتباط صفحات نیز از فاکتورهای مورد توجه است. لینک دادن از یک صفحه به صفحه دیگری که از نظر محتوا نیز مشابه با یکدیگر هستند، از ارزش بالاتری نسبت به لینک دادن از یک صفحه کاملا نا مرتبط می باشد. این کار از نظر موتور جستجوی گوگل نیز کار بسیار مثبتی است و امتیاز خوبی برای آن قائل می شود.

7- نوع لینک نیز از اهمیت برخوردار است. لینک گذاری با استفاده کدهای HTML به مراتب بهتر از استفاده از کدهای جاوا اسکریپت می باشد. بعضا مشاهده می شود که برای زیباسازی صفحات از کدهای جاوا اسکریپت و تصاویر برای لینک دادن به دیگر صفحات استفاده می شود. اما تجربه نشان می دهد که لینک دادن با استفاده از کلمات، اعتبار بیشتری را برای صفحات به بار می آورد. در صورت لزوم استفاده از تصاویر برای لینک دادن، متن جایگزین عکس ها را فراموش نکنید. چرا که این متن نقش کلمات را در انکر تکست بازی می کند.

 

لینک های داخلی به 3 دلیل کلی ایجاد میشوند:

1- آنها به کاربر این اجازه را میدهند که در وبسایت راحت تر گردش کند.

2- به مدیر وبسایت اجازه میدهد که قدرت رنک ( Link Juice ) را در کل وبسایت تقسیم کند.

3- به مدیر وبسایت این امکان را میدهند که اطلاعات تکمیلی را در مورد یک پست در داخل خود وبسایت به خود کاربر بدهد.

لینک های داخلی بهترین روش برای ساختن ساختار کلی یک سایت میباشند.

در هر صفحه ی جداگانه موتورهای جستجو باید محتوایی را مشاهده کنند تا بتوانند آن را در پایگاه دیتای خود ذخیره کنند. آنها همچنین نیاز دارند که به لینک های سایت برای شناسایی ساختار سایت دسترسی داشته باشند تا بتوانند تمامی صفحات یک سایت را پیدا کنند. بسیاری از طراحان وب این اشتباه را میکنند که لینک های خود را از گوگل مخفی میکنند این باعث میشود گوگل به خوبی نتواند لینک های داخلی شما را شناسایی کند و در نتیجه سایت شما خوب ایندکس نشود.

 

نمونه ای از ساختار لینک های داخلی خوب:

در این تصویر همان گونه که مشاهده می کنید از صفحه اصلی سایت به تمامی صفحات می توان دسترسی پیدا کرد. در واقع قدرت لینک های سایت در میان تمام صفحات سایت تقسیم شده است.

 

نمونه ای از ساختار لینک های داخلی ضعیف:

همان گونه که در تصویر مشاهده می کنید اسپایدر گوگل از طریق لینک های داخلی از صفحه A به صفحات B و E می رسد. اما هیچگونه لینکی به صفحات C و D وجود ندارد. در اینجا اسپایدر نمی تواند به این صفحات دسترسی پیدا کند. این نشانه ضعیف بودن ساختار لینک های سایت است.

لینک های داخلی خوب که ساختار خوبی داشته باشند به این صفحات هم لینک میدهند. ممکن است شما در صفحات دیگری کلمات کلیدی خوب محتوای عالی داشته باشید اما گوگل هیچ وقت نمیتواند به آنها از طریق لینک های شما دسترسی پیدا کند زیرا ساختار لینک های شما ( Link Architecture ) ضعیف است

لینک ها باید دنبال شوند تا بتوان به آنها رنک داد. در زیر دلیل هایی آمده است که چرا ممکن است صفحات ایندکس نشوند:

1- لینک ها فقط در هنگام جستجو ظاهر میشوند. موتورهای جستجو هیچ وقت نمیتوانند و نمیخواهند در سایت شما کلمه ی خاصی را جستجو کنند. آنها علاقه ندارند که به دنیال لینک باشند شما باید لینک ها را در اختیار آنها قرار دهید.

2- لینک ها به صورت JavaScript مخفی شده اند. موتورهای جستجو خوب نمیتوانند لینک های مخفی در جاوااسکریپ را دنبال کنند. اگر شما از Iframe استفاده کنید و یا لینک ها را برای زیبایی بیشتر در جاوا اسکریپ قرار دهید آنها نمیتوانند لینک ها را شناسایی کنند. لینک هایی که به صفحات بسته شده توسط Robots.txt و یا Meta Robots Tag اشاره میکنند شما زمانی که صفحه ای را مسدود میکنید نباید به آن لینک بدهید چون بیشتر باعث گیج شدن اسپایدر میشود زمانی که شما لینکی را بستید باید ایندکس شدن آن را فراموش کنید. لینک هایی در صفحاتی با هزاران لینک این اتفاق مانند این است که شما را میان هزاران خوراکی قرار دهند و به شما بگویند فقط یکی را انتخاب کن. شما نمیتوانند از میان هزاران خوراکی خوشمزه فقط و فقط یکی را انتخاب کنید. لینک ها برای گوگل مانند خوراکی هستند که دوست دارد به دنبال آنها برود. اگر شما تعداد بسیار زیادی لینک را در اختیار گوگل قرار دهید اسپایدر گیج میشود و نمیداند چه لینکی را باید دنبال کند.

در این صورت 2 حالت ایجاد میشود:

یا هیچ لینکی را دنبال نمیکند یا لینکی را دنبال میکند که دارای ارزش بسیار پایینی است. لینک های موجود در Frames و Iframes به صورت فنی لینک هایی که در ایفریم و فریم ها موجود هستند قابل دنبال کردن هستند. اما این دنبال کردن دارای شرایط خاصی هست که شاید هر کسی آن را ندارد. تنها کسانی که اطلاعات کافی از ساخت وبسایت ها و طراحی وب دارند میتوانند به درستی از امکان استفاده کنند. با خودداری کردن از استفاده از این نوع کدها شما میتوانید HTML پاک و مناسب برای سایت خود بسازید


الگوریتم پاندا

    نظر

 

الگوریتم گوگل پاندا ابتدا در 23 فوریه 2011 راه اندازی شد. هدف اجرای الگوریتم گوگل پاندا، دادن امتیاز بیشتر به وبسایت های دارای محتوای جذاب و کاستن حضور سایت های بی کیفیت در نتایج جستجو بود.

 

الگوریتم پاندا چیست:

گوگل در سال های گذشته خلاء بزرگ محتوای مفید را جستجو حس میکرد و شاید دیگر وقت این بود که از یک جستجوگر ساده که فقط به این نگاه میکرد که یک سایت چه تعداد از یک کلمه را بیشتر دارد تا آن را در صفحه اول قرار دهد به یک جستجوگر واقعا حرفه ای و هوشمند تبدیل شود در این زمان الگوریتم پاندا که شاید موفق ترین الگوریتم گوگل پاندا بوده است پا به میان گذاشت. شاید در ابتدا مشکلات در این الگوریتم وجود داشت اما به مروز زمان سایت های بی کیفیت و بدون محتوا و اسپمر به فراموشی سپرده شدند. البته هر الگوریتم درصد خطایی دارد اما نسبت به سال های گذشته کیفیت مطالب در صفحات اول خیلی مناسب شده است.

 

این الگوریتم یکی از مهم ترین، اثرگذار ترین و البته یکی از خطرناک ترین الگوریتم های گوگل است که خیلی از سایت ها که این الگوریتم را جدی نگرفتند الان روزگار خود را در زندان گوگل سپری می کنند و بسیار نادم و پشیمان هستند.

الگوریتم پاندا تمام تمرکز خود را بر روی محتوای وب سایت ها گذاشته و سایت هایی که محتوای بی کیفیت و یا کپی در سایت خود تولید می کنند، موجب ناراحتی و بعضی اوقات هم موجب عصبانی شدن این پاندای مهربان می شوند.

البته درباره این الگوریتم هنوز همه ی اطلاعات به دست ما نرسیده است چون بخشی از این اطلاعات، جزء رمز و راز های گوگل است. اما در این مقاله به اندازه ای که رابطه ی سایت ما با این پاندای پر حاشیه خوب شود، اطلاعات کسب خواهیم کرد.

 

 

اهداف گوگل پاندا

الگوریتم پاندا چند پدیده مشکل دار در نتایج جستجو را هدف گرفته است. این اهداف شامل موارد زیر می گردند:

  • محتوای بسیار کم: صفحات اینترنتی که دارای محتوای مرتبط بسیار کمی هستند و از نظر متنی نیز بسیار قلیل می باشند. مانند صفحاتی که دارای موضوعات متنوع اما اطلاعات بسیار کمی در هر مورد هستند.
  • محتوای تکراری: محتوای کپی شده در بسیاری از جاهای اینترنت وجود دارد. تکرار محتوا حتی در سایت خود شما هم می تواند اتفاق بیفتد. زمانی که یک متن مشخص را در چندین صفحه به صورت تکراری کپی می کنید، احتمالا با این مشکل مواجه خواهید شد. به عنوان مثال یک شرکت ممکن است 10 صفحه با نام ده شهر ایجاد کند و خدمات خود را به یک شکل در هر ده صفحه تکرار کند.
  • محتوای ضعیف: صفحاتی که شامل اطلاعات بسیار کمی درباره موضوع خود هستند.
  • فقدان آتوریتی و اعتبار: محتوایی که توسط منابعی تولید می شوند که دارای اعتبار تایید شده ای نیستند. گوگل در این زمینه تاکید کرده است که سایت هایی که نمی خواهند تحت تاثیر منفی پاندا قرار گیرند، می بایست تلاش کنند تا با انتشار اطلاعات مفید، اعتبار خود را در بین کاربران افزایش دهند.
  • مزرعه محتوا (Content Farming): صفحات بسیار زیاد بی کیفیت که اغلب محتوای خود را از سایت های دیگر جمع آوری می کنند. به عنوان مثال می توان به وبسایت هایی اشاره کرد که صفحات زیادی را با موضوعات گرفته شده از کلمات کلیدی مورد جستجو در گوگل، جمع آوری می کنند و محتوای بی ارزشی را درباره آن تولید کرده و بدون اینکه خواسته کاربران را در نظر بگیرند، می خواهند رتبه های بالا در نتایج جستجو کسب کنند.
  • محتوای بی کیفیت تولید شده توسط کاربران: به عنوان مثال وب سایت هایی که صرفا پست های مهمان که معمولا بسیار کوتاه نیز هستند منتشر می کنند. این پست ها نیز که معمولا پر از غلط های املایی بوده و فاقد اطلاعات ارزشمند می باشد.
  • نسبت تبلیغ به محتوای بالا: صفحاتی که مملو از تبلیغات هستند اما محتوایی ندارند.
  • محتوای ضعیف پیرامون لینک های مشخص: محتوای ضعیفی که صرف با هدف لینک دادن به یک سایت مشخص ایجاد شده است.
  • وب سایت های بلاک شده توسط کاربران: سایت هایی که کاربران انسانی به صورت مستقیم در نتایج جستجو بلاک کرده اند.
  • محتوای نامرتبط با عبارت مورد جستجو: صفحاتی که عنوان می کنند که مطالب مرتبط با عبارت مورد جستجو ارائه می دهند اما با ورود به آن با چیز دیگری مواجه می شویم. به عنوان مثال می توان به صفحاتی اشاره کرده که تخفیف رستوران ارائه می دهند اما در بدو ورود متوجه می شوید که هیچ تخفیفی در این صفحه وجود نداشته و صرفا با تبلیغات پر شده اند.

 

 

خط قرمز های الگوریتم پاندا:

برخی از مواردی که پاندا از آن ها خوشش نمی آید، به شرح زیر است:

*کپی کردن محتوا از سایت های دیگر ممنوع (پاندا از این کار متنفر است)

*بازنشر یک مطلب در سایت ممنوع (یعنی یک مقاله را دو بار در سایت قرار دهیم)

*محتوای بی روح ممنوع (مقاله ما باید عکس، فیلم و… داشته باشد تا باب میل پاندا شود. البته گوگل بخاطر نبود تصویر در مقاله به ما را تنبیه نمیکند)

*مقالات غیر مرتبط ممنوع (یعنی مثلاً: در یک سایت آموزشی محتوای ما موزیک های جدید باشد)

*مقاله بدون کامنت ممنوع (نظرات در سایت بسیار اهمیت دارد، البته اگر مقاله ای کامنت نداشته باشد گوگل با آن برخورد نمی کند و برای تاکید بیشتر است که این نکته در اینجا عنوان شده)

*استفاده بیش از حد از تبلیغات در سایت ممنوع (تبلیغات نباید به اندازه ای باشد که کاربر را از سایت فراری دهد)

*بروز نکردن مطالب قدیمی ممنوع (البته منظور مطالبی است که نیاز به بروز رسانی دارند و در حقیقت منسوخ شده اند)

 

الگوریتم پاندا حرف حسابش چیست؟!

الگوریتم پاندا خواستار محتوای با کیفیت است، و به لطف گوگل تا دو سال آینده در اینترنت درباره همه چیز محتوا وجود دارد و در آن زمان، همه ی سایت ها متخصص تولید محتوا شده اند(البته محتوایی با کیفیت متوسط) و وب سایتی معتبر محسوب می شود که محتوای خاص و باکیفیت تولید کند.

 

در هنگام آپدیت های جدید گوگل، جزییات مرتبط با آن را حتما مطالعه کنید تا از سلامت سایت خود با توجه به موارد نهی شده در این آپدیت ها باخبر شوید. اگر احیانا بعد از آپدیت مشخصی دچار کاهش ترافیک شدید و مطمئن بودید که علت این امر ناشی از قصور شماست، مشکل مورد نظر را حل کرده و از طریق وبمستر درخواست بخشش از گوگل کنید.


search intent یا هدف جستجو چیست؟

    نظر

 

برای اینکه افراد بیشتری را جذب سایت خود کنید، باید برای کسب رتبه بالاتر از گوگل تلاش کنید. در این راه سئو میتواند به شما کمک کند. برای این کار باید محتوای وب سایتتان را براساس کلماتی که مردم بیشتر از آن استفاده میکنند بهینه کنید. هدف شما از راه اندازی یک وب سایت میتواند فروش محصولاتتان، ارائه ی مقالات علمی یا خبرنامه باشد. شما باید افراد را برای هدف خود از راه اندازی وب سایت متقاعد کنید تا در زمان های دیگر به سایت شما برگردند.

 

search intent یا هدف جستجو چیست؟

هدف جستجو یا search intent برای یافتن دلیل یک جستجوی خاص توسط مردم باید انجام شود. چرا افراد جستجو می کنند؟
آن ها جستجو می کنند چراکه سوالی در ذهن دارند و می خواهند پاسخی برای آن بیابند. آیا آن ها برای یک وب سایت خاص جستجو می کنند؟ یا آن ها به دنبال چیزی هستند که قصد خریدش را دارند؟
بالای یک سال است که گوگل قادر است هدف از جستجوی مردم را تشخیص دهد. گوگل می خواهد به صفحاتی بالاترین رتبه را دهد که بیشترین تطابق را هم با کلمات مورد جستجو و هم با هدف از جستجوی یک پرسش خاص دارند. به همین دلیل است که تناسب محتویات وب سایت با هدف از جستجوی افراد ضرورت دارد.

 

هدف کلمات کلیدی اصلی
کلماتی که افراد در جستجوهای خود استفاده می کنند اطلاعاتی در مورد اهداف کاربران ارائه می دهد. اگر مردم کلماتی مانند خرید، معامله، تخفیف استفاده کنند، آن ها قطعا مستعد خرید هستند. اگر مردم کلماتی مانند اطلاعات، چگونه، بهترین راه را در جستجوی خود استفاده کنند احتمالا هدف جستجوی آن ها کسب اطلاعات است.

 

 

4 نوع از اهداف جستجو وجود دارد:

 

1- تحقیقات تجاری یا Commercial investigation
بسیاری از افراد قصد خرید در آینده را دارند اما تحقیقات اولیه خودشان را از طریق وب انجام میدهند. بهترین ماشین لباس شویی کدام است؟ کدام افزونه سئو مفید است؟ این افراد قصد انجام تراکنش دارند اما به زمان بیشتری برای متقاعد شدن نیاز دارند. این نوع از هدف از جستجو معمولا جستجو با هدف تحقیقات تجاری نامیده می شود.

 

2- اطلاع رسانی یا Informational intent
نوع اول، اطلاع رسانی است. بسیاری از جستجوها که توسط افراد در اینترنت انجام می گیرد به منظور کسب اطلاعات است. اطلاعات در مورد آب و هوا، آموزش کودکان، سئو یا بهینه سازی سایت و یا هرچیزی دیگری می¬ تواند باشد. در این موارد، افراد یک سوال خاص در ذهن دارند یا می خواهند درباره یک موضوع اطلاعات بیشتری کسب کنند.

3- هدف تراکنشی یا Transactional intent
نوع سوم از هدف جستجو، هدف تراکنشی است. بسیاری از افراد بصورت آنلاین خرید می کنند و به دنبال بهترین خرید از طریق وب هستند. تمام افرادی که به دنبال خرید هستند در زمره جستجو با هدف خرید قرار می گیرند.

 

4- هدف ناوبری یا Navigational intent
نوع دوم، هدف ناوبری یا هدایت کننده است. افراد با این هدف سعی می کنند تا به یک وب سایت خاص دسترسی پیدا کنند. برای مثال افرادی که معمولا کلمه “فیس بوک” را جستجو می کنند، معمولا قصد دارند به سایت فیس بوک بروند.
کسب رتبه بالا برای یک عبارت ناوبری زمانی برای ترافیک ارگانیک وب سایت شما سودمند است که سایت شما هدف از جستجوی افراد باشد. چند سال گذشته، یوست افزونه گوگل آنالیتیکس را به گزینه های خود اضافه کرده است و توانسته روی عبارت “گوگل آنالیتیکس” رتبه بسیار بالایی را دریافت کند. این در حالی است که این موضوع ترافیکی برای یوست ایجاد نکرده است چرا که افراد به دنبال سایت گوگل آنالیتیکس بودند و تقریبا هیچکدام به دنبال افزونه ی یوست نبوده اند.

 

چگونه محتوا را با توجه به هدف از جستجو بهینه سازی کنید؟
شما می خواهید اطمینان حاصل کنید که یک صفحه فرود متناسب با هدف جستجوی مخاطبان شماست. اگر مردم به دنبال کسب اطلاعات هستند، احتمالا نمی خواهید صفحه محصولاتتان برای آن ها نمایش داده شود و یا اگر افراد به دنبال خرید محصولی هستند نباید آن ها را درگیر مقالات طولانی و خسته کننده کنید و باید آن ها را به صفحه خرید هدایت کنید.
صفحات محصولات خودتون را برای کلمات کلیدی تجاری محرک بهینه سازی کنید. اگر شما لوازم ورزشی را بفروش می رسانید، می توانید به عنوان مثال یک صفحه محصول را برای “خرید لوازم ورزشی” بهینه سازی کنید. شاید شما مقاله ای در مورد لوازم ورزشی داشته باشید. مثلا می توانید این مقاله را برای عبارت “نحوه استفاده از لوازم ورزشی” بهینه کنید.
مشخص کردن هدف از جستجو برای یک عبارت کلیدی کار دشواری است. شاید کاربران مختلف هدف های متفاوتی داشته باشند اما در نهایت به یک صفحه مشابه هدایت شوند. اگر می خواهید بیشتر در مورد هدف مخاطبان مورد نظرتان بدانید، بهترین راه این است که از آن ها بپرسید. شما می توانید یک نظر سنجی کوچک داشته باشید، حاوی سوالاتی در مورد اینکه به دنبال چه چیزی در جستجوی خود هستند. این روش به احتمال زیاد بینش بیشتری نسبت به هدف موردنظرتان خواهد داد.

نتیجه گیری
این موضوع بسیار مهم است که محتوایی که در حال نوشتن آن هستید هم با کلمات و هم با هدف از جستجوی افراد متناسب باشد. اطمینان حاصل کنید که صفحه شما شامل اطلاعاتی است که افراد در جستجوی آن هستند و یا اگر افراد مستعد خرید یکی از محصولات شما هستند، آن ها را به صفحات فروش هدایت کنید.


فایل robots.txt چیست؟

    نظر

شاید بتوان گفت که اولین کاری که بعد از طراحی سایت باید انجام دهید این است که به ربات های گوگل و دیگر موتورهای جست و جو  اعلام کنید که وبسایت شما فعال است تا صفحات سایت شما توسط این موتورهای جست و جو crawl شود. برای این کار وبمستران فایل robots.txt را می سازند تا از این طریق اولین گام سئو سایت شما برداشته شود. این فایل در نحوه ایندکس شدن مطالب سایت شما بسیار تاثیر گذار است و در نتیجه برای ساخت این فایل باید نکاتی را مد نظر داشته باشید. در تعریف اولیه می توان چنین گفت که فایل robots.txt یک فایل متنی است که به ربات‌ موتورهای جستجو  می گوید که کدام صفحات وبسایت شما را خزش کرده یا کدام صفحات را باید نادیده بگیرد.

فایل robots.txt در بسیاری از موارد برای کسب رتبه بهتر در گوگل به شما کمک می کند. برای مثال:

  • اگر چند محتوای تکراری در وبسایت شما ایجاد شده باشد می توانید از طریق robots.txt یکی از آنها را disallow کنید. این کار باعث می شود که مطالب شما با هم رقابت بیهوده نداشته باشند.
  • با استفاده از robots.txt می توانید بخشی از سایت را در دسترس عموم قرار ندهید.
  •  اجازه ندهید ربات‌ها برخی فایل‌های روی سایتتان (مانند فایل‌های PDF یا تصاویر) را ایندکس کرده و در فهرست نتایج نمایش دهند.
  •  برای ربات‌ها یک زمان تأخیر در خزیدن تعریف کنید تا وقتی سایت شلوغ می‌شود، سرعت پایین نیاید.

چک کردن وجود فایل robots.txt برای یک سایت

برای اینکه فایل robots.txt یک سایت را ببینید کافی است در انتهای ریشه دامین اصلی سایت یک اسلش گذاشته و عبارت robots.txt را تایپ کنید. مانند مثال زیر:
Example.com/robots.txt
به این ترتیب، محتویات فایل robots.txt آن سایت را مشاهده خواهید کرد.
چنانچه سایت دارای فایل robots.txt نباشد، با تایپ کردن آدرس ذکرشده در آدرس بار، با خطای 404 مواجه خواهید شد.

نحوه ساخت فایل robots.txt

1- برای ساخت فایل robots.txt به صفحه اصلی‌هاست خود در سی پنل یا دایرکت ادمین بروید.
2- سپس بر روی file manager کلیک کنید.
3- وارد پوشه public_html شوید.
4- در این پوشه یک فایل جدید به نام robots.txt ایجاد کنید.
5- بر روی فایلی که ایجاد کرده‌اید دو بار کلیک نمایید تا در کامپیوترتان ذخیره شود. سپس آن را با برنامه notepad باز کنید و دستورات لازم را در آن وارد کرده و تغییرات را ذخیره کنید.
6- فایل را مجدداً درهاست خود جایگزین فایل قبلی نمایید.
در تمام مراحل توجه داشته باشید که فایل robots.txt نسبت به کوچکی و بزرگی حروف حساس است. نام خود فایل باید با حروف کوچک نوشته شود. در نوشتن دستورات نیز به کوچکی یا بزرگی نام فایل‌ها توجه کنید.

دستورات قابل پشتیبانی در فایل robots.txt

به طور کلی پنج دستور مهم در فایل robots.txt وجود دارد:

دستور user-agent

دستور user-agent به تنهایی نمی‌تواند یک دستور کامل باشد، بلکه باید در کنار یکی از سه دستور بعدی استفاده شود. این دستور نوع رباتی که باید از دستورات بعدی اطاعت کند را مشخص می‌کند.
برای مثال اگر قصد داشته باشید برای ربات‌های گوگل دستوری صادر کنید، نام ربات‌های گوگل (googlebot) را می‌نویسید. هم‌چنین اگر دستور برای تمام ربات‌هاست باید در مقابل user-agent: از علامت ستاره (*) استفاده شود.

دستور disallow

بعد از اینکه ربات‌های موردنظر مشخص شدند، وقت آن است تا برایشان دستور صادر شود. دستور disallow به معنی «اجازه ندادن» است. بنابراین طبعاً باید صفحاتی را که ربات مذکور نباید کرول کند (بخزد) را در مقابل آن نوشت. توجه داشته باشید که روت دامین نباید نوشته شود و فقط بعد از اسلش را بنویسید.  نکته دیگر این‌که، چنانچه قصد دارید چندین صفحه را disallow کنید، باید چند دستور disallow بنویسید. به مثال زیر توجه کنید:
User-agent: *
Disallow: /products/content/
Disallow: /local/enterprise/confirm
Disallow: /researchtools/ose/
Disallow: /page-strength/*
Disallow: /thumbs/*

دستور allow

دستور allow به معنی اجازه دادن است و همان طور که حدس می‌زنید به ربات‌های مشخص‌شده اجازه می‌دهد صفحاتی را که در مقابل این دستور نوشته می‌شوند بخزند.
البته نوشتن این دستور ضرورتی ندارد؛ چراکه ربات‌ها به صورت پیش‌فرض تمام صفحات سایت را می‌خزند. با این حال برخی وبمستران برای تأکید بر برخی صفحات سایتشان، از دستور allow استفاده می‌کنند. نحوه استفاده از دستور allow نیز دقیقاً مانند دستور disallow است.

دستور crawl-delay

این دستور می‌تواند بر سرعت لود صفحات سایتتان اثر بگذارد. به این ترتیب سرعت سایت به دلیل ورود تعداد زیاد خزنده‌ها کاهش پیدا نمی‌کند. شما می‌توانید عددی را در مقابل این دستور تایپ کنید. این عدد نشان می‌دهد که ربات‌های تعیین شده باید به آن مقدار ثانیه صبر کرده و سپس سایت را بخزند. البته توجه داشته باشید که این دستور برای ربات‌های گوگل اثر ندارد.

دستور sitemap

در مقابل این دستور باید آدرس سایت مپ را وارد کنید. این دستور نیازی به دستور user-agent ندارد.

قرارد دادن فایل robots.txt در سرچ کنسول گوگل

بعد از اینکه فایل robots.txt خود را ساختید، باید آن را در کنسول گوگل نیز قرار دهید. به این ترتیب ربات‌های گوگل خیلی سریع‌تر به صفحات allow یا disallow سایت شما دسترسی پیدا خواهند کرد و سایتتان را سریع‌تر می‌خزند.
برای این منظور چنانچه قبلاً در کنسول گوگل ثبت‌نام نکرده باشید باید مراحل ثبت‌نام را انجام دهید.
بعد از انتخاب سایت موردنظر، وارد صفحه‌ سرچ کنسول گوگل می شوید که چنانچه قبلاً فایل robots.txt را آپلود کرده باشید، محتویات فایل قبلی را نشان می‌دهد.
در غیر این صورت فایل robots.txt را از نوار پایین صفحه آپلود کرده و دکمه submit را کلیک نمایید.
به همین سادگی، فایل شما به گوگل معرفی می‌شود و گوگل ربات‌هایش را طبق راهنمای شما به سمت سایتتان روانه خواهد کرد.

جمع بندی

فایل Robots.txt  یکی از ملزومات اصلی و اولیه سئو سایت است. شرکت طراحی سایت پیام آوا در طراحی سایت هایی که انجام می دهد اصول اولیه سئو را در این سایت ها رعایت می کند تا مشتریان برای بهبود عملکرد سایت خود در آینده با مشکل روبرو نشوند. ارائه مشاوره رایگان در زمینه سئو سایت و بکارگیری اصول حرفه ای کد نویسی در طراحی سایت شرکتی و طراحی سایت فروشگاهی باعث می شود که وبسایت شما در کمترین زمان ممکن تعامل مثبتی با موتور های جست و جو داشته باشد.