Not : Türkçe dökümantasyon aşağıdadır.
See Change Log
**System : Processor : 1,6 GHz Intel Core i5 , RAM : 8 GB 1600 MHZ DDR3 , Macbook Air
Method | Execution Time (ms) | Words Count |
---|---|---|
auto_correct | 135 ms | 1000 words |
is_turkish | 1 ms | 1000 words |
syllabicate_sentence | 94 ms | 1000 words |
Very early version of the TurkishNLP. For now it has basically 5 main functions; Detecting Turkish Language, correcting text without whitespace, correcting typos, vowel harmonic detection, Turkish origin detection and syllabication in Turkish words.
Dataset was created by parsing and filtering a Turkish wikipedia dump.
To get started first you need to install the package. With using pip;
pip install turkishnlp
And you can install the most recent version by;
pip install --upgrade turkishnlp
After installing the package succesfully try and import the package.
import turkishnlp
To download the data first we need to create an instance of TurkishNLP class. So we need to ;
from turkishnlp import detector
obj = detector.TurkishNLP()
After creating the instance we can simply call the download function like this;
obj.download()
It will take shortly and after the download it will print out "Download succesful". You won't have to download the data again.
To create the wordset from data you need to ;
obj.create_word_set()
And it will create the wordset and necesary dictionaries.
So there are 5 main functions, detecting if the language is Turkish, Turkish typo correction, vowel harmony detection, Turkish origin detection and syllabication.
print(obj.is_turkish("Ben bugün ankaraya gideceğim belki birşeyler alırım"))
Will return us "True" along with the accuracy point which is 0.85
lwords = obj.list_words("vri kümsi idrae edre ancaka daha güezl oalbilir")
print(obj.auto_correct(lwords))
Which will print out ['veri', 'kümesi', 'idare', 'eder', 'ancak', 'daha', 'güzel', 'olabilir']. "List_words" method simply splits the text by words with the help of regex. You can simply use "join" to make it a sentence again like this;
lwords = obj.list_words("vri kümsi idrae edre ancaka daha güezl oalbilir")
corrected_words = obj.auto_correct(lwords)
corrected_string = " ".join(corrected_words)
Which will print out 'veri kümesi idare eder ancak daha güzel olabilir'.
obj.syllabicate_sentence("Hiç unutmadım, doğudan esen hafif bir yel saçlarını dalgalandırıyordu")
And it will give you ;
"[['hiç'], ['u', 'nut', 'ma', 'dım,'], ['do', 'ğu', 'dan'], ['e', 'sen'], ['ha', 'fif'], ['bir'], ['yel'], ['saç', 'la', 'rı', 'nı'], ['dal', 'ga', 'lan', 'dı', 'rı', 'yor', 'du']]"
This is a Turkish language rule. You can check if a word is vowel harmonic by doing this;
obj.is_vowel_harmonic("Belki")
Which will return True, since it is vowel harmonic.
Again there are Turkish language rules so you can check if a word is Turkish origin or not. For example; The word 'program' is not a Turkish word. Lets try and check;
obj.is_turkish_origin("program")
Returns false. On the other hand the word 'yazılım';
obj.is_turkish_origin("yazılım")
Gives us True
Important Note : Since this function is based on an another dataset, you need to re-call download function again.
As it is said in the title this function corrects the text without whitespace. For example you have the word 'türkçedoğaldilişleme'. We call the function and pass the word as the param;
obj.correct_text_without_space('türkçedoğaldilişleme')
Will return us ; 'türkçe doğal dil işleme' as expected. Lets try something longer a random text I have found; 'hidroelektriksantralbarajlardasuyunenerjisikullanılırakelektrikenerjisiüretilensantralehidroelektriksantraladıverilir'
obj.correct_text_without_space('hidroelektriksantralbarajlardasuyunenerjisikullanılırakelektrikenerjisiüretilensantralehidroelektriksantraladıverilir')
Will return ; 'hidroelektrik santral baraj l arın da suyun enerjisi kullan ı l ırak elektrik enerjisi üretilen santral e hidroelektrik santral adı veri lir'. As you can see this function is not %100 accurate since it is very dependant on the dataset. If someone to create a clear dataset for this function, I think it will run very smooth with this current approach. Note : This function does not exist in the current Pypi release
TurkishNLP kütüphanesinin alfa versiyonu. Şimdilik Türkçe dilini tespit etme, Boşluksuz yazılan yazıyı boşluklarına ayırma, Türkçe yazım hatalarını düzeltme, büyük ünlü uyumu kontrolü, Türkçe köken kontrolü ve kelimeleri hecelere ayrıma olmak üzere 5 ana fonksiyonu var
Veri kümesi wikipedia'nın Türkçe dump'ı parselanıp temizlenerek oluşturuldu.
Öncelikle başlamadan, pip ile kütüphaneyi yüklemeniz gerekiyor. Şu şekilde;
pip install turkishnlp
Ayrıca şu şekilde yayınlanan son versiyonu indirebilirsiniz;
pip install --upgrade turkishnlp
Yükledikten sonra kütüphaneyi şu şekilde import etmeyi deneyin;
import turkishnlp
Veriyi indirmek için önce TurkishNLP sınıfından türetilmiş bir obje oluşturmamız lazım;
from turkishnlp import detector
obj = detector.TurkishNLP()
Objeyi oluşturduktan sonra indirme metodunu şu şekilde çağırarak indirme işlemini başlatabiliriz ;
obj.download()
İndirme işlemi çok uzun sürmeden bitecek ve ardından "Download Succesful" yani indirme başarılı manasına gelen bir yazı ekrana basılacak
İndirdiğimiz veriden kodun içinde kullanacağımız verisetlerini oluşturmak için basitce;
obj.create_word_set()
Yapıyoruz ve işlem tamamlanmış oluyor
Başlıkta da belirttiğim gibi temel olarak 5 metod var.
print(obj.is_turkish("Ben bugün ankaraya gideceğim belki birşeyler alırım"))
Yaptığında göreceğiz ki, ekrana "True" bastırıyor ve doğruluk oranı olarak 0.85 döndürüyor.
lwords = obj.list_words("vri kümsi idrae edre ancaka daha güezl oalbilir")
print(obj.auto_correct(lwords))
Yapıyoruz ve sonuç olarak bize ['veri', 'kümesi', 'idare', 'eder', 'ancak', 'daha', 'güzel', 'olabilir'] listesi veriliyor. Burada "list_words" metodunun yaptığı string olarak gelen texti regex yardımıyla kelimelerine ayırmaktır Kelimeleri birleştirmek için Python'ın "join" metodu kullanılabilir. Örneğin;
lwords = obj.list_words("vri kümsi idrae edre ancaka daha güezl oalbilir")
corrected_words = obj.auto_correct(lwords)
corrected_string = " ".join(corrected_words)
Yazdıracağı sonuç : 'veri kümesi idare eder ancak daha güzel olabilir'.
obj.syllabicate_sentence("Hiç unutmadım, doğudan esen hafif bir yel saçlarını dalgalandırıyordu")
Yapıyoruz. Ve dönen sonuç;
"[['hiç'], ['u', 'nut', 'ma', 'dım,'], ['do', 'ğu', 'dan'], ['e', 'sen'], ['ha', 'fif'], ['bir'], ['yel'], ['saç', 'la', 'rı', 'nı'], ['dal', 'ga', 'lan', 'dı', 'rı', 'yor', 'du']]"
Herhangi bir kelimenin büyük ünlü uyumuna uyup uymadığını şu şekilde kontrol edebiliriz;
obj.is_vowel_harmonic("Belki")
'belki' kelimesi büyük ünlü uyumuna uyduğundan bu işlem bize True döndürecektir
Bir kelimenin Türkçe kökenli olup olmadığını öğrenmek için çeşitli kurallar var. turkishnlp kütüphanesiyle 'program' kelimesinin türkçe kökenli olup olmadığını öğrenmek için;
obj.is_turkish_origin("program")
Yapıyoruz ve bize False değeri döndürüyor. Öte yandan 'yazılım' kelimesi için
obj.is_turkish_origin("yazılım")
Yapıyoruz ve bize True değerini döndürüyor
Önemli Not : Bu fonksiyon farklı bir verikümesine bağlı olduğundan, download fonksiyonunu tekrar çalıştırmanız gerekecektir.
Bu fonksiyon başlıkta da belirtildiği gibi boşluksuz olarak yazılan bir yazıyı, boşluklarına ayırıyor. Örneğin, 'türkçedoğaldilişleme' kelimesine sahip olduğumuzu düşünelim. Fonksiyonu çağırıp kelimeyi parametre olarak geçtiğimizde;
obj.correct_text_without_space('türkçedoğaldilişleme')
Bize beklendiği gibi ; 'türkçe doğal dil işleme' dönecek. Şimdi internetten rastgele bulup boşluklarını sildiğim bir yazıyı deneyelim; 'hidroelektriksantralbarajlardasuyunenerjisikullanılırakelektrikenerjisiüretilensantralehidroelektriksantraladıverilir'
obj.correct_text_without_space('hidroelektriksantralbarajlardasuyunenerjisikullanılırakelektrikenerjisiüretilensantralehidroelektriksantraladıverilir')
Bize ; 'hidroelektrik santral baraj l arın da suyun enerjisi kullan ı l ırak elektrik enerjisi üretilen santral e hidroelektrik santral adı veri lir'. Görüldüğü üzere bu fonksiyon kelime kümesine de fazla bağlı olduğu için %100 doğruluk oranıyla çalışmadı. Ancak temiz bir veri kümesi oluşturulduğu takdirde bu yaklaşımla çok daha yüksek bir doğruluk oranı yakalanacağını düşünüyorum. Not : Bu fonksiyon Pypi release'inde mevcut değil