smartos اولین برخورد!

اینم یه تجربه پراکنده دیگه!

سر کار اخیرا نیاز شد که یه سیستم با قابلیت virtualization نصب کنیم. خوشبختانه همکارمون که مسئول این کار بود از من در این مورد مشورت گرفت. توی کارهای خیلی جدی شرکت معمولا از vmware ESXi استفاده میشه اما اینجا من و این دوستمون علاقه‌مند شدیم که از یه تکنولوژی دیگه استفاده کنیم. هر دومون با kvm و linux آشنایی داشتیم پس مطمئن بودیم که میتونیم در بدترین حالت با استفاده از لینوکس مشکل رو حل کنیم. پس من پیشنهاد دادم بریم سراغ smartos. یه شرکت به نام joyent از این سیستم عامل پشتیبانی میکنه که اسپانسر nodejs و چیزهای دیگه هم هست. همونطور که قبلا هم گفته بودم این سیستم عامل یه مدته «چشم من رو گرفته» دلایلش هم ایناست

  1. ریشه اش به سولاریس برمیگرده که سیستم عامل بسیار خوبیه!
  2. از zfs پشتیبانی میکنه که اون هم سیستم فایل محشریه!
  3. از kvm به عنوان مجازی ساز سخت افزار استفاده میکنه
  4. از zone های سولاریس به عنوان مجازی سازی سبک(مراجعه کنید به این و این) پشتیبانی میکنه

کاری که ما میخواستیم انجام بدیم این بود که میخواستیم علی الحساب یه ماشین مجازی pfsense توش نصب کنیم و یه کارهایی باهاش انجام بدیم در حین این کار نکات جالب و قابل توجهی برخوردیم که میخوام اینجا مستندشون کنم

نکات جالب در برخورد من با این سیستم عامل اینهاست

  1. کل سیستم نیاز به نصب نداره! و فقط کافیه که روی هارد بتونه سیستم فایل zfs رو تشخیص بده. پس بروز رسانی در حد خاموش و روشن کردن سیستم هزینه داره. از اون سمت با استفاده از pxe میشه سیستم رو بوت کرد که یعنی کل هاردهای سرور جهت ذخیره سازی اطلاعات بکار میره
  2. از json برای توصیف ماشین‌های مجازی و zone هاش استفاده میکنه. که این قضیه برنامه نویسی کردن برای اون رو به شدت ساده میکنه

نکات قابل توجهی که من در حین کار بهش برخوردم اینا بود

  1. کارت شبکه mainboard یکم مشکل داشت و smartos هم درست ازش استفاده نمیکرد
  2. مدت زمان لازم برای reboot شدن ماشین مجازی pfsense زیاد بود(حدود ۵ دقیقه)
  3. نمیشد از توی pfsense سیستم رو reboot کرد
  4. نصب واسط گرافیکی برای راحت‌تر کار کردن لینوکس و یونیکس نابلدها با سیستم به نظر پر دردسر میرسید!

علی الحساب همین تا باز هم بیشتر باهاش کار کنم و نتایج رو بهتون بگم!

چرا لینوکس را دوست دارم: استخراج کلمات کلیدی از سایت نارنجی

اینم یه تجربه پراکنده دیگه!

بسیار پیش میاد که بازار بعضی چیزها توی مملکت‌ما بصورت ناگهانی داغ بشه و باز سرد بشه. این جو ایجاد شده بعضی وقت‌ها خوب و بعضی وقت‌ها بده و بعضی وقت‌ها دامن من رو هم میگیره. حدودا یک سال پیش تب درست کردن سایتی که خبر جمع کنه و اخبار رو بصورت اتوماتیک دسته بندی کنه داغ بود. بصورت قارچی سرویس‌هایی که اخبار رو جمع آوری میکردن سر از خاک در آوردن و موفق شدن یا شکست خوردن. در این حین من به این نتیجه رسیدم که خوبه که من هم به عنوان یه موضوع جانبی و سرگرمی این کار رو انجام بدم. یکی از مشکلاتی که توی این کار داشتم این بود که دسته بندی درست مطالب تاثیر بسیار زیادی توی احتمال رسیدن افراد به این سایت داره. اما مهمترین چیزی که نبود این بود که لیست کلمات کلیدی فارسی اونم تو حوزه تکنولوژی نبود. پس من تصمیم گرفتم به کمک وب این لیست رو بوجود بیارم

اون موقع تازه نارنجی رو تعطیل کرده بودند اما هنوز سایت سرجاش بود. به علت کیفیت خوب کار دوستان توی نارنجی هم تگ‌هایی که به مطالب داده بودن به عنوان لیست کلمات کلیدی قابل اعتماد بود. پس من به این نتیجه رسیدم که یه سری اسکریپت بنویسم که این کلمات رو استخراج کنم. یکم توی اینترنت گشتم و ابزارهای مربوط به استخراج اطلاعات از صفحات وب(web scraping) رو بررسی کردم. آخرش به این نتیجه رسیدم که پایتون و beautiful soup رو پیدا کردم و به کمک اون اسکریپ رو نوشتم.

خب اول از همه تابع استخراج تمامی url های تمام پست‌های نارنجی هست

 

def getNarenjiURLs(inUrl):
	lst = []
	url = 'http://narenji.ir/'

	# Check if it is a valid URL
	if 'http://' in inUrl:
		url = inUrl
	else:
		url = 'http://' + inUrl

	# logging start time
	rst = time.time()
	# getting URL content
	r  = requests.get(url)
	#logging end time
	rend = time.time()
	
	pst = time.time()
	data = r.text
	 
	# parsing content using Beautiful soupe
	soup = BeautifulSoup(data, 'lxml')

	for link in soup.find_all('div',class_='views-field views-field-title'):
		for a in link.find_all('a'):
			if a['href'].startswith('/'):
				lst.append('http://narenji.ir' + a['href'])
			else :
				lst.append(a['href'])
	pend = time.time()
	#print (' r Time = ' + str(rend - rst) +' p Time ' + str(pend - pst))
	return lst

خب بعدش نوبت میرسه به اینکه توی هر صفحه کلمات کلیدی رو استخراج کنم. با بررسی سورس html سایت متوجه شدم که تمام کلمات کلیدی یه الگوی خاص دارن و اون الگو قابل استخراج بود. کد این کار هم در پایین اومده

def getNarenjiKeywords(inUrl):
	lst = []
	url = ""
	if 'http://' in inUrl:
		url = inUrl
	else:
		url = 'http://' + inUrl

	# logging start time	 
	rst = time.time()
	# getting URL content
	r  = requests.get(url)
	#logging end time
	rend = time.time()

	pst = time.time()

	# parsing content using Beautiful
	data = r.text
	 
	soup = BeautifulSoup(data, 'lxml')
	 
	for link in soup.find('div',class_='meta').findAll('a'):
		lst.append(link.text)
	pend = time.time()

	#print (' r Time = ' + str(rend - rst) +' p Time = ' + str(pend - pst))

	return lst

با توجه به بررسی‌هایی که انجام دادم متوجه شدم اگه این کار رو بخوام بصورت متوالی انجام بدم کلی طول خواهد کشید پس تلاش کردم که کار رو بصورت موازی انجام بدم. پس به ازای هر درخواست یه Thread بالا آوردم و بصورت موازی این کارها رو انجام دادم. یه کد warpper رو این دوتا تابع بصورت زیر نوشتم.

def doUrlWork():
	global urlList
	while True:
		url=qGetUrl.get()
		tmpUrl = getNarenjiURLs(url)
		print ( str(len(tmpUrl)) + ' URLs found')
		urlList.update(set(tmpUrl))
		qGetUrl.task_done()

def doKeywordWork():
	global keys
	while True:
		url=qGetKeywords.get()
		tmpKey = getNarenjiKeywords(url)
		print ( str(len(tmpKey)) + ' keys found')
		keys.update(set(tmpKey))
		qGetKeywords.task_done()

برای اینکه تعداد Thread ها زیاد نشه از یه صف استفاده کردم که الان یادم نیست. همچنین از مجموعه‌های پایتون برای حذف کلمات تکراری استفاده کردم.

پس اگه بخوام کل اسکریپت بصورت یکجا بیارم میشه:

import timeit
import time
from bs4 import BeautifulSoup
import urllib2
import requests
from Queue import Queue
from threading import Thread
import codecs

keys = set([])
urlList = set([])

concurrent = 10

def doUrlWork():
	global urlList
	while True:
		url=qGetUrl.get()
		tmpUrl = getNarenjiURLs(url)
		print ( str(len(tmpUrl)) + ' URLs found')
		urlList.update(set(tmpUrl))
		qGetUrl.task_done()

def doKeywordWork():
	global keys
	while True:
		url=qGetKeywords.get()
		tmpKey = getNarenjiKeywords(url)
		print ( str(len(tmpKey)) + ' keys found')
		keys.update(set(tmpKey))
		qGetKeywords.task_done()

def getNarenjiKeywords(inUrl):
	lst = []
	url = ""
	if 'http://' in inUrl:
		url = inUrl
	else:
		url = 'http://' + inUrl

	# logging start time	 
	rst = time.time()
	# getting URL content
	r  = requests.get(url)
	#logging end time
	rend = time.time()

	pst = time.time()

	# parsing content using Beautiful
	data = r.text
	 
	soup = BeautifulSoup(data, 'lxml')
	 
	for link in soup.find('div',class_='meta').findAll('a'):
		lst.append(link.text)
	pend = time.time()

	#print (' r Time = ' + str(rend - rst) +' p Time = ' + str(pend - pst))

 

به این ترتیب کلمات کلیدی نارنجی بصورت موازی استخراج شد و ذخیره شد!

همین!

ماجراهای تکنولوژیک خانه من: برنامه بروزرسانی بعد از دو سال

اینم یه تجربه پراکنده دیگه!

همینطور که قبلا نوشته بودم(لینک، لینک، لینک) من تقریبا دوسال میشه که یه سیستم تمام وقت روشن توی خونه دارم که باهاش کارهای بسیاری میکنم که لیست اون کارها از این قراره:

  1. یه ماشین مجازی کوچک دارم و pfsense مسئولیت مسیریابی خونه رو به عهده داره
  2. روش minidlna دارم  که مسئولیت تفریحات فیلمی خونه رو برعهده داره
  3. روش یه samba server دارم که مسئولیت اشتراک فایل رو برعهده داره
  4. روش یه seafile سرور دارم که مسئولیت بک آپ اتوماتیک از تصاویر تلفن‌ها و اطلاعات مهم لپ تاپ‌ها رو برعهده داره.
  5. روش یه deluge دارم که شبها تورنتها رو دانلود و آپلود میکنه
  6. روش یه سرور taskwarior دارم که نقط بک آپ مدیریت لیست کارهایی هست که در هفته انجام میدم

کانفیگ سیستم هم اصلا جدید نیست و یه سیستم میشه گفت بسیار قدیمیه

  1. سی پی یو: AMD sempron 3000+ AM2
  2. رم : ابتدا ۱ گیگ و سپس ارتقا به ۲٫۵ گیگ
  3. هارد: ۵۰۰ گیگ
  4. سیستم عامل: اوایل ubuntu server و mint

این سیستم تقریبا با ثبات بسیار خوبی این دو سال گذشته رو خدمت رسانی کرده و من ازش راضیم خدا هم ازش راضی باشه! توی این دو سال من تجربه بسیاری خوبی در مورد مدیریت یه سیستم تنها به کمک ssh داشتم. همچنین توی این دوسال خانمم هم به مدت کوتاهی از این سیستم به عنوان دسکتاپ استفاده کرده.

اما این سیستم بعد از دوسال نیاز به بروزرسانی داره و من میخوام به دلایل زیر این سیستم رو از نظر سخت افزاری و نرم افزاری ارتقا بدم

  1. پرشدن هارد بر اثر دانلود زیاد
  2. نیاز به راه‌اندازی یک NAS به دلیل نزدیک شدن به پایان عمر مفید هارد دیسک‌های اکسترنال(حدودا سال ۸۷ خریداری شده اند)
  3. یادگیری تکنولوژی‌های جدید
  4. بهینه سازی سیستم فعلی

اما طرح من برای بهینه کردن این سیستم از این قراره که:

  1. علی الحساب میخوام سه تا هارد دو ترا به سیستم اضافه کنم که یکیش بک آپ اون دوتای دیگه باشه. همچنین نمیخوام از کارت raid استفاده کنم و ترجیحم اینه که از سیستم فایل zfs استفاده کنم.
  2. میخوام بتونم روی این سیستم از مجازی سازی سبک یا همون container های استفاده کنم که این استفاده هم کلی چیز جدید به من یاد میده
  3. میخوام سیستم عامل رو سبک کنم و میزان مصرف منابع کاهش بدم. برای این کار به نظر میرسه باید از لینوکس به یه سیستم عامل دیگه مهاجرت کنم که این مهاجرت کلی مطالب جدید به من یاد میده
  4. در صورتی که پولم برسه میخوام یه ssd بخرم و اون رو به عنوان cache به zfs اضافه کنم,

چالشهای پیش روم هم ایناست:

  1. zfs یک سیستم فایل بسیار قوی هست اما من فکر نمیکنم که هنوز به اندازه کافی اون رو بلدم که بخوام بهش اعتماد کنم و کل هاردهام رو به اون بسپارم
  2. zfs روی سیستم عامل freebsd و illumos و حتی linux وجود داره اما من نمیدونم کدوم پیاده‌سازی بهتر و با ثبات تره. البته باید بگم که پیاده‌سازی‌های موجود روی این سیستم‌ها قدیمی و با ثبات هستن
  3. تکنولوژی مجازی سازی سبک یا container‌ ها همنطور که اینجا هم بررسی کردم روی لینوکس freebsd و illumos با هم متفاوته من هیچ دید عملیاتی ندارم که کدوم بهتره.
  4. هر کدوم از این سیستم‌های یه سری کارها رو راحت کردن مثلا freebsd با freenas و nas4free کار رو برای پیاده‌سازی آسون zfs راحت کرده و شیر کردن و تورنت بازی این چیزا خیلی ساده شده. همچنین illumos با یه محصول به نام smartos مجازی سازی و مجازی سازی سبک و مدیریت اونها رو بسیار ساده کرده. که این انتخاب رو سخت میکنه

حالا با توجه به اینکه انتخاب‌های من کم نیستن بایستی یکم بیشتر بررسی کنم و انتخاب کنم.

همین!

غواصی در اعماق: systemd socket activation

اینم یه تجربه پراکنده دیگه!

امروز داشتم توی وب میگشتم و در مورد docker میخوندم که چشمم به این پست خورد که چطور توی pantheon تونستن با استفاده از تکنولوژی‌های مرتبط به container تونستن یه بیزنس بسیار جذاب برای ارائه یه نوع هاستینگ خاص مرتبط با drupal و wordpress بسازن. اما نکته‌ای که داشت این بود که یکی از نکاتی که منجر به خفن شدن سیستم اونها شده بود استفاده از یه ویژگی systemd به نام socket activation بود. که من یکم در موردش خوندم و بسیار ازش لذت بردم و گفتم ازش بنویسم.

قصه از اینجا شروع میشه که توی سیستم‌های مبتنی بر یونیکس از قدیم الایام یه چیزی وجود داشته با نام SysV که قدمهای مرتبط با boot سیستم توی اونجا انجام میشده. یعنی اینکه فرض کنید برای اینکه لینوکس بطور کامل بالا بیاد نیاز به داره که ۱۰ تا سرویس اجرا بشه و هر کدوم از اونها یه سری وابستگی دارن که این سیستم این قدم‌ها رو با توجه به وابستگی‌هاش اجرا میکنه. نحوه اجرا شدن این قدم‌ها توی SysV بصورت ترتیبی است که این روند باعث افزایش زمان مورد نیاز برای boot شدن سیستم میشه. توی MacOs از سیستم به نام launchd برای کاهش زمان boot پیاده‌سازی شده. همچنین توی لینوکس  راه حل‌هایی برای اجرای موازی سرویسهایی که به همدیگه وابسته نیستن مثل upstart اوبونتو توسعه پیدا کرده. اما مشکل سرعت کم boot بصورت کامل رفع نشده. به همین خاطر systemd پیاده‌سازی شده و از ساز و کاری به اسم socket activation ایجاد شده که سرویس‌ها هم بتونن با سرعت لود بشن هم مشکلی بوجود نیاد.

تقریبا همه چیز در لینوکس معمولا این سرویسها ارتباطشون از طریق socket ها ایجاد میشه و از socket به عنوان IPC استفاده میشه. حالا ایده اینه که بجای اینکه کل پروسس مربوط به یک سرویس بالا بیاد و بعد اون بیاد و سرویس رو ایجاد کنه، systemd بجای پروسه اصلی سوکت رو ایجاد کنه و هر وقت اولین درخواست به این سوکت رسید سرویس اجرا بشه و سوکت باز شده هم در اختیار پروسس این سرویس قرار بگیره. خوبی این روش هم اینه که تقریبا تمام سرویس‌های متونن همزمان اجرا بشن و خب در صورتی که یه سرویس زودتر از یه سرویس دیگه اجرا بشه و به سرویس کند نیاز داشته باشه درخواست‌هاش رو به سوکت مربوطه میفرسته تا زمانی که این سوکت بتونه چیزی دریافت کنه-لازمه بگم که هر سوکت میتونه به حجم محدودی اطلاعات رو توی خودش نگه داره- پس از اون کرنل دخالت میکنه و برنامه‌ یا برنامه ‌هایی که میخوان به اون سوکت بنویسن رو بصورت موقت متوقف میکنه. تا سرویس دهنده اجرا بشه و بیاد به درخواست‌ها پاسخ بده و سوکت با امکان نوشته شدن داشته باشه. این ایده جدید نبوده و توی inted ملقب به superserver هم برای سرویس دهنده‌های اینترنتی مثل ftp مورد استفاده قرار گرفته. اما systemd ایده رو توسعه داده و بجای سوکت‌های اینترنتی از همه نوع سوکتی پشتیبانی میکنه. این روش سود‌های دیگه‌ای هم داره:

  • وابستگی‌ها بصورت واضحی معرفی نمیشن چون همه سوکت‌ها برای دریافت اطلاعات وجود دارن
  • اگر یک سرویس به علتی خراب بشه و به اصطلاح بمیره سوکت اون وجود خواهد داشت و پس از شروع مجدد دوباره کارهاش رو از همون جایی که بوده پی میگیره
  • اگر یک سرویس بروزرسانی بشه میتوان اون رو به راحتی restart کرد ولی سوکت مربوطه وجود داره به سرویس دهی ادامه میده
  • تغییر سرویس هم از دید کاربر مخفی میمونه

همین!

منابع:

حالا اگه کسی خواست واقعا بیشتر بدونه بهتره به منابع پایین یه سری بزنه

  1. این سایت اصلیه که کلی اطلاعات جذاب توش داره.
  2. این سایت نویسنده یا یکی از نویسندگان اصلی systemd هست
  3. اگه برنامه نویس هستید و میخواد با این مفهوم بیشتر آشنا بشید این مطلب و این یکی رو هم بخونید

 

چرا لینوکس را دوست دارم: انتقال حجم عظیمی از فایل‌

اینم یه تجربه پراکنده دیگه!

من امروز خواستم که به دلایلی لپ‌تاپم رو با یه لپ‌تاپ یکی از اعضای خانواده عوض کنم. لپ تاپ مقصد ویندوز داشت و خب من لینوکس دوست داشتم. همچنین بایستی بعد از انجام انتقال روی لپ‌تاپ من ویندوز نصب میشد که کاربر جدید لپ‌تاپم مشکلی پیدا نکنه.

خب اول بگم که کل پارتیشن‌های لپ‌تاپ من ext4 بود و نمیشد بدون خراب کردن پارتیشن بندی این انتقال انجام بشه. همچنین حجم کل فایلهای روی لپ‌تاپ من عددی نزدیک به ۸۵۰ گیگا بایت بود که خب عدد بسیار بزرگیه. همچنین باید بگم که کارت شبکه لپ تاپ من متاسفانه ۱۰۰ مگه.

مراحل کارهای انجام شده اینا بود:

  • نصب کردن لینوکس روی لپ تاپ  مقصد
  • نصب samba رو کامپیوتر خودم
  • مونت کردن samba به عنوان یک فولدر در لپ تاپ مقصد
  • و کپی کردن بهینه فایلها با استفاده از rsync

نکته اساس این کار استفاده از rsync هست چون حجم اطلاعات اونقدر زیاده که حدودا ۲۰ ساعت انتقالش طول میکشه. توی این زمان زیاد هزارتا اتفاق ممکنه بیفته از قطع شدن برق تا مشکل شبکه و حتی در موارد خاص قاط زدن سیستم عامل. مزیت rsync اینه که بصورت بهینه کلی فایل رو کپی میکنه و هیچ پیش فرضی نداره که همه انتقال پشت سر هم انجام بشه و انتفاق میتونه قطع بشه و دوباره شروع بشه. همین باعث میشه که من با خیال راحت‌تر انتقال رو انجام بدم و تا الان حدود ۳۵۰ گیگ از اطلاعات رو انتقال بدم و هنوز هم انتقال ادامه داره.

همین!

پ.ن. این انتقال طولانی من رو به این نتیجه رسوند که داشتن یک NAS در خونه از اوجب واجباته

لذت برنامه نویسی یا برنامه نویسی بر بال ابرها با openshift

اینم یه تجربه پراکنده دیگه!

سیستم‌های مبتنی بر رایانش ابری بسیار باب شدند و خب هر کسی سعی میکنه که بصورتی خدمات ارائه شده رو از قالب سنتیش راه کنه و اون رو در ابرها به پرواز در بیاره. البته لازم میدونم که بگم رایانش ابری همه چیز نیست و برخی از نیازهای دنیای امروز رو جواب میده که بازم اگه عمری بود دربارش مینویسم.

سرویس openshift که توسط غول دنیای متن باز redhat تاسیس شده و اتفاقا یه سرویس اولیه مجانی هم داره سعی میکنه بستر برنامه نویسی مورد نیاز رو در اختیار برنامه نویسان قرار بده و بعدش برنامه نویسی بتونن با استفاده از git نرم افزارهاشون بدون نگرانی در مورد بستری که قرار این نرم افزار رو اجرا کنه مورد آزمایش و تست قرار بدن.

اتفاقا پلتفرمهای پشتیباین شده تقریبا کامل هستند node.js، j2ee، python، django، perl، ruby، ruby on rails رو پشتیبانی میکنه و پایگاه داده‌هایی هم که داره  mySql، postgreSql و monogoDB هست. که تقریبا ۹۰ درصد نیازهای یک برنامه نویس رو پشتیبانی میکنه. اتفاقا چون از git هم برای نصب و راه‌اندازی  هر برنامه استفاده میشه نسخه‌های قبلی اون هم  نگه داشته میشه و این خودش بسیار خوبه.

همچنین یکی دیگه از چیزایی که این سیستم پشتیبانی میکنه اینه شما میتونید از jenkins هم استفاده کنید که یک پلتفرم continious integration هست که به شما کمک میکنه بصورت اتوماتیک نرم افزار شما سر هم بشه و build بشه و تست میشه که آیا قسمت‌های مختلف اون با هم تضاد دارند یا نه. که خب این نکته خیلی خارجیه و هنوز من جایی در اطرافم رو ندیدم که واقعا از یک چنین سیستم در محیط عملیاتیشون استفاده کنند

البته باید بگم که سیستم های دیگه ای مثل heroku هم برای اینکار وجود داره اما من این openshift بیشتر خوشم و اگه بازم عمری بود در مورد سیستم‌های مشابه یکم می‌نویسم.

راهکارهای متن باز برای Network Attached Storage

اینم یه تجربه پراکنده دیگه!

امروز میخوام درباره Network Attached Storage یا همون NAS یکم بنویسم. خب از اونجایی که من علاقه‌مند به سیستم های متن بازم پس بازهم در مورد راهکارهایی که متن باز این سیستم رو پیاده‌سازی میکنن حرف میزنم. فکر کنم که بهتره هرچه سریعتر لیست این محصولات رو بگم:

من متاسفانه هیچکدوم از این محصولات رو توی خونه ندارم ولی دوست داشتم که یه کامپیوتر کم مصرف داشتم که بتونم یه دونه رو راه بندازم. اما توی شرکت ما از NAS4Free استفاده می‌کنیم که تا الان با کیفیت خوبی جواب کارمون رو داده.

پروتکل‌های ارتباطی که معمولا هر کدوم از این محصولات پشتیبانی میکنند هم توی لیست پایین اومدن:

فکر میکنم یکی دیگه از اطلاعاتی که مهمه مقایسه این محصولات با همه که با توجه به جستجوهای من در اینترنت این مقالات رو پیدا کردم که فکر کنم به درد بخوره

مقایسه FreeNAS با Openfiler توی این لینک پیدا میشه

مقایسه FreeNAS با NAS4Free توی این لینک پیدا میشه

همین!

python logo

لذت برنامه نویسی یا پایتون چیست و چرا؟

اینم یه تجربه پراکنده دیگه

یکی از کارهای مورد علاقه من توسعه نرم افزار است. البته توی سایت تا حالا کمتر پست‌های توسعه‌ای یا برنامه نویسی نوشتم اما این اولین پسته و میخوام اگه خدا بخواد این سری پست‌ها رو بیشتر کنم و از تجربیاتم توی این زمینه بنویسم. اسم پست‌ها هم فعلا قراره شبیه اون برنامه مشهور«لذت نقاشی» باشه.

اما برم سراغ اصل مطلب که همون پایتون باشه! من تجربم با پایتون بسیار تجربه لذت بخشی بوده. یعنی اینکه بسیار زبون شیرین و تو دل برو ای هست. ساختار زبان تا اونجایی که من میدونم به گونه‌ای ساده شده که سرعت توسعه توش زیاد باشه. چارچوب‌ها و کتابخانه‌های بسیاری خوبی بالاخص برای طراحی وب داره(django, flask, …) که باعث میشه شما بتونید به راحتی خیلی از کارهای سختی که قبلا انجام میدادید رو تنها با چند خط کد انجام بدید.

همچنین یه سیستم خیلی قشنگ هم برای مدیریت پکیج‌ها، نیازمندی‌ها و سایر چیزا داره(pip) که برای شما این امکان رو ایجاد میکنه که یه پروژه رو خیلی سریع استارت بزنید. همچنین برای اونهایی که لینوکس کار میکنن یه سری امکانات داره که به شما اجازه میده بدون اینکه به root سیستم دسترسی داشته باشید خیلی کارهای زیادی رو انجام بدید(virtualenv). وب سرورهای خوبی برای محیط توسعه و حتی محیط‌های عملیاتی داره که بسیار هم خوش دسن.

در مجموع تجربه من این رو میگه که کار کردن با پایتون لذت بخشه و من حتی یک درس شروع برنامه نویسی در سایت coursera.org دیدم اونجا هم از پایتون به عنوان زبون مبتدی ها استفاده کرده بود که خب این خیلی به مبتدی ‌ها کمک میکنه که بتونن زود با دنیای برنامه نویسی آشنا بشن و یه چیزایی یاد بگیرن.

امیدوارم این تجربه هم به درد کسی بخوره.

راه‌کارهای توزیع بار و استفاده از چند اینترنت در خانه و محل کار

بعد از یه مدت که سرم توی کار خیلی شلوغ بوده با یه تجربه پراکنده دیگه اومدم اینجا.

سوال اصلی که قرار جواب داده بشه اینه که اگه ما چند تا منبع اینترنت داشتیم و خواستیم برای افزایش قابلیت اطمینان پهنای باند اونها رو باهم ترکیب کنیم این کار چطور صورت میگیره.

خب راه حل‌های گوناگونی برای اینکار وجود داره. یکی از راه استفاده از سخت افزارهایی هست که برای این کار ساخته شده. mikrotik یا مسیریاب‌های اختصاصی شرکتهای دیگه که قابلیت loadbalancing رو دارند و معمولا با سام تجاری loadbalancing router شناخته میشن این قابلیت رو داره.

نرم افزارهای تجاری هم وجود دارند که این امکان رو برای شما ایجاد میکنه. اما از اونجایی که به قول دوستان ما روی راه حل‌های متن باز غیرت خاصی داریم اینجا هم میخوام چند تا محصول معرفی کنم که این کار باهاشون امکان پذیره.

البته باید بهتون بگم که تقریبا کرنل هر سیستم عاملی امکان انجام این کار رو داره و فقط باید به اندازه کافی بلد باشید که با کرنل حرف بزنید و اون رو کانفیگ کنید. تفاوت سیستم عامل های مختلف و راه حل‌های مختلف اینه که چقدر ابزار برای راحت تر کردن این کار انجام دادن.

خب راه حل هایی که من باهاشون مستقیما کار کردم zeroshell و pfSense هست که یکیشون یه لینوکسه یک دیگش هم یه freeBSD  هست. اما دیدم دوستان با استفاده از kerio و محصولات cisco اینکار رو انجام دادن. هردوی zeroshell و pfSense امکاناتی دارند که به راحتی کانفیگ میشن و این کار انجام میشه.

این مقدمه برای این پست کافیه تا تو یه پست کامل توضیح میدم که اینکار pfSense چطور انجام میشه.

نحوه نصب سرور Firefox sync

خب این یه تجربه پراکنده دیگه!

من همیشه با ازدیاد تب ها باز توی مرورگر مورد علاقم که همون فایرفاکس باشه مشکل داشتم. یعنی همیشه تب های خیلی زیادی باز بودن و من همیشه با مدیریتشون مشکل داشتم. چند ماهی بود که یه راه به نسبت خوب برای مدیریت تب‌ها پیدا کرده بودم و اونم استفاده از Tab Group ها توی فایرفاکس بود. که اگه عمری بود یه روز هم درباره اون مینویسم.

بزرگترین مشکل استفاده از گروها تب‌ها اینه که اگه خدای نکرده فایرفاکس crash کنه و بسته بشه و شما در نوبت بعد به اشتباه تب ها دوباره باز نشه همه چیز از دست رفته و مثلا من خودم شاید نزدی به ۱۰۰ تب رو از دست دادم و خب این برام خیلی دردناک بود.

حالا یه راهی که برای حل این مشکل پیدا کردم اینه که از ویژگی sync تو فایرفاکس استفاده کنم. بعدش دیدم که حتی میشه یه سرور محلی برای این کار داشت. این خیلی خوب بود چون هم میشد یه کار گیکی کرد هم اطلاعات من حفظ میشد.

من با استفاده از این لینک روی لینوکسم یه سرور محلی نصب کردم که از sqlite به عنوان دیتا بیس استفاده میکنه و در یه حرکت برای حفظ اطلاعاتم فایل دیتابیس رو روی dropbox گذاشتم و همه چیز به خوبی و خوشی انجام شد.

این بود یه تجربه پراکنده دیگه