Skip to content

smbanaie/twitter-nlp

Repository files navigation

این مخزن کد برای تمرینات درس بازیابی اطلاعات - دانشگاه بزرگمهر قائنات در نظر گرفته شده است.

تمرین اول

هدف از این تمرین، اشنایی اولیه با مفاهیم پایه پردازش زبان طبیعی در زبان فارسی با استفاده از داده های توئیتر است. برای خواندن توئیت از کتابخانه tweepy استفاده شده است و مشخصات اتصال به توئیتر در فایل twitter_config.py قرار گرفته است که در صورت نیاز به کار کردن با اکانت شخصی خودتان، می توانید با مراجعه به سایت توئیتر، یک App جدید ساخته، مشخصات اتصال آنرا در این فایل وارد کنید.

با توجه به فیلتر بودن سایت توئیتر برای انجام این تمرین از نرم افزارهایی مانند سایفون استفاده کنید و دقت کنیدکه گزینه Use VPN Mode را در تنظیمات این نرم افزار تیک بزنید تا تمام ترافیک ویندوز از جمله ترافیک مورد نیاز برای اتصال به توئیتر هنگام اجرای برنامه ها از طریق این نرم افزار صورت بگیرد.

قبل از شروع

دقت کنید که پای چارم و نسخه 3 پایتون روی سیستم شما نصب باشد.

کتابخانه tweepy را هم برای پایتون ۳ یا با باز کردن پروژه در پای چارم و مراجعه به بخش تنظیمات، از طریق علامت مثبتی که هنگام انتخاب شماره نسخه پایتون ظاهر می شود و یا با دستور زیر در خط فرمان ویندوز آنرا نصب کنید :

pip install tweepy

پروژه جاری را ابتدا فورک نمایید تا به اکانت شما در گیت هاب منتقل شود. سپس، آنرا دانلود کرده و یا به کمک گیت، Clone نمایید تا به سیستم شما منتقل گردد. سایفون را اجرا و تنظیمات آنرا انجام دهید.

گام صفر

در این گام، تنها به اجرای برنامه و مشاهده توئیت ها و اطلاعات مختلفی که هنگام دریافت یک توئیت به دست ما می رسد، می پردازیم. فایل twitter-step-0.py را باز کرده، محتویات آنرا بررسی کنید.

در این فایل، کلاسی داریم با نام TweetListener که از کلاس StreamListener ارث بری دارد . کلاس StreamListener برای خواندن جریانی (خواندن مداوم جریان داده های توئیتر) استفاده می شود که متد on_data آن، هنگام دریافت هر توئیت ،فراخوانی می شود و بنابراین پردازش های خود را در این متد انجام می دهیم.

با دستور json.loads(data) رشته دریافت شده که اطلاعات یک توئیت است را به جی سان تبدیل نموده و برای تبدیل یک دیکشنری (جی سان) به یک رشته برای ذخیره در فایل از json.dumps(data) استفاده خواهیم کرد. برخی از اطلاعات json_data که همان توئیت دریافت شده است را چاپ کرده ایم . مهم ترین این اطلاعات، متن توئیت یا json_data["text"] است.

در انتهای فایل با دو دستور زیر :

twitter_stream = Stream(auth, TweetListener()) 
twitter_stream.filter(languages=['fa'], track=['با' , 'از','به','در'])

شروع به پردازش جریانی از توئیت های فارسی که در آنها کلمات با، از ، به ، در به کار رفته است، خواهیم کرد. یعنی به ازای بخشی از توئیت های فارسی که در آنها این کلمات به کار رفته است ( نه همه آنها)،توئیتها را دریافت خواهیم کرد و با متد on_data به پردازش آنها خواهیم پرداخت.

نکته : اگر کل توئیت دریافتی را پرینت کنید یعنی دستور print(data) حروف فارسی به صورت کدشده (با علامت یوی انگلیسی که کد یونیکد هر حرف است) خواهید دید اما اگر هر بخش از اطلاعات را به صورت جداگانه پرینت کنید، آنها را فارسی خواهید دید.

گام اول

در این مرحله، هر توئیت دریافتی را در پوشه tweets ذخیره خواهیم کرد. برای اینکه مدیریت این فایلها راحت تر باشد، آنها را در پوشه ای به تاریخ روز دریافت شدن توئیت با پسوند txt ذخیره کرده ایم.

فایل twitter-step-1.py را اجرا کنید تا این فایلهای متنی ساخته شوند. حدود هزار عدد توئیت را حتما ذخیره کنید.

توضیح اینکه با کتابخانه pathlib پوشه های لازم برای ذخیره توئیت ها را می سازیم و codecs.open فایل مربوط به ذخیره هر توئیت را به صورت یونیکد ایجاد کرده و متن توئیت را در آن ذخیره می کنیم.

گام دوم

در این مرحله، به حذف علائم نگارشی ، آدرسهای ایمیل ، آدرسهای اشخاص و مانند آن می پردازیم. با دستورات :

for dirpath, dirs, files in os.walk('tweets'):    
           for filename in fnmatch.filter(files, '*.txt'):        
                  with codecs.open(os.path.join(dirpath, filename),'r',encoding="utf-8")as f:

تمام فایلهای موجود در تمام پوشه های قرار گرفته در آدرس tweets را باز کرده و مرحله به مرحله پردازش می کنیم.

برای حذف یک الگوی خاص از کتابخانه معروف re که مخفف عبارات با قاعده است استفاده کرده ایم. مثلا در کد زیر :

tweet= re.sub(r'@[A-Za-z0-9_]+', '',tweet)

ابتدا الگو را مشخص کرده ایم : تمام کلماتی که با @ شروع شوند و بعد از آنها یکی از حروف الفبا یا اعداد یا آندرلاین به تعداد یک یا بیشتر به کار رود را با رشته خالی درون متغیر tweet جایگزین کرده ایم و نتیجه را هم در همین متغیر ذخیره نموده ایم.

ضمنا با دستور :

tweet = " ".join(tweet.split())

برای اینکه تمام متن یک توئیت را در یک خط ذخیره کنیم، ابتدا آنها را اسپلیت کرده و سپس با دستور جوین به یکدیگر چسبانده ایم. کاراکتر ابتدای این دستور و قبل از دستور جوین، مشخص کننده کاراکتری است که بین عناصر لیست قرار خواهد گرفت. پوشه ای با نام step2 درون پوشه nlp ایجاد کرده ایم و خروجی این مرحله که پاکسازی اولیه متن توئیت هاست درون این پوشه ذخیره خواهد شد.

نکته مهم : تمام خروجی های مراحل بعدی تمرین، مشابه با این مرحله درون پوشه ای به صورت مجزا قرار خواهد گرفت تا عملیات قابل پیگری به صورت مرحله به مرحله باشد.

گام سوم

اولین تمرین ، گام سوم این فرآیند است که هدف آن، شمارش تمامی کلمات موجود در تمامی توئیت ها و ذخیره آنها در یک فایل در پوشه step3 به صورت مرتب شده است. خروجی این مرحله فایلی با ساختار زیر خواهد بود :

و : 396
از : 143
به : 128
....

یعنی از پرتکرارترین کلمه به کم تکرارترین کلمه .

برای این منظور می توانید از کد زیر استفاده کنید :

file=open("D:\\zzzz\\names2.txt","r+")
wordcount={}
for word in file.read().split():
    if word not in wordcount:
        wordcount[word] = 1
    else:
        wordcount[word] += 1

for k,v in wordcount.items():
    print k,v
file.close();

فایل کد مورد نیاز این گام : twitter-step-3.py

فایل خروجی این گام : nlp/step3/word-frequency.txt

گام چهارم

در این مرحله ، می خواهیم کلمات پرتکرار یا stop words یا ایست واژه ها را حذف کنیم.

فایل خروجی مرحله قبل یعنی word-frequency.txt را باز کرده، بیست کلمه پرتکرار آنرا به عنوان ایست واژه در نظر بگیرید.

لیستی ایجاد کنید که بیست خط اول فایل را خوانده و این کلمات را درون آن بریزد. حال مشابه با مرحله قبل، تمام توئیت ها را که در پوشه step2 ذخیره شده اند را باز کرده، این کلمات را از درون آنها حذف کرده و خروجی را مشابه با مرحله دوم، ذخیره کنید.

فایل کد مورد نیاز این گام : twitter-step-4.py

فایل های خروجی این گام : nlp/step4/

گام پنجم

در این مرحله به تولید شاخص وارون و ذخیره آن در یک فایل اقدام خواهیم کرد. تک تک توئیت ها را خوانده، به ازای هر کلمه درون آن، یک لیست در نظر بگیرید و آی دی توئیت و تعداد تکرار آنرا در آن ذخیره کنید. از کد مرحله سوم استفاده کنید و یک دیکشنری به صورت زیر ایجاد کنید :

data= {
  'پسر' : 
         {2,[974257304093806593,974257309391171585]},
  'ضمانت' :
         {1,[974257304093806593]}
}

در دیکشنری فوق، کلمه پسر در دو توئیت وجود داشته است و آی دی این دو توئیت در لیست جلوی آن ذخیره شده است.

این داده ها را درون یک فایل ذخیره کنید. قالب ذخیره هم به این صورت باشد که در ابتدای هر خط، کلمه فارسی ذکر شود، سپس ویرگول و بعد تعداد تکرار و مجددا ویرگول و سپس تمامی آی دی ها که آنها هم با ویرگول از هم جداشده باشند.

فایل کد مورد نیاز این گام : twitter-step-5.py

فایل خروجی این گام : nlp/step5/inverted-index.txt

گام ششم

با استفاده از دیکشنری ساخته شده در مرحله قبل، ابتدا یک کلمه از کاربر گرفته، تمامی توئیت هایی که آن کلمه در آنها به کار رفته است را به او نشان دهید (همراه با متن توئیت)

سپس دو یا چند کلمه از کاربر دریافت کرده، توئیت هایی که این کلمات در آنها بوده است را نشان دهید.

نکته : می توانید از مجموعه ها در پایتون استفاده کنید به جای لیست معمولی که خودش عملیات اشتراک و اجتماع را دارد.

فایل کد مورد نیاز این گام : twitter-step-6.py

این تمرین ۳ نمره داشته، در صورت عدم تحویل ، دونمره منفی خواهید گرفت.

موفق باشید

با احترام

سید مجتبی بنائی

About

مخزنی برای دانلود و تحلیل توئیت های فارسی

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages