Tümevarımlı mantık programlama

testwiki sitesinden
Gezinti kısmına atla Arama kısmına atla

Şablon:Makine öğrenimi kutusu

Tümevarımlı mantık programlama (TMP) bilginin mantık programlama ile ifade edildiği bir makine öğrenmesi yöntemidir. Mantıksal olgulardan oluşan artalan bilgisi ve gözlemler kümesini içeren bir veritabanı verildiğinde, ILP sistemi tüm olumlu gözlemleri gerektiren ve olumsuz gözlemlerin hiçbirini gerektirmeyen bir hipotez üretir.

  • Çerçeve: olumlu gözlemler + olumsuz gözlemler + artalan bilgisi hipotez.

Tümevarımlı mantık programlama özellikle biyoenformatik ve doğal dil işleme konularında kullanışlıdır. Gordon Plotkin ve Ehud Shapiro mantık çerçevesiyle tümevarımlı makine öğreniminin ilk kuramsal temellerini oluşturmuşlardır.[1][2][3] Shapiro bunun ilk gerçeklemesini (Model Çıkarsama sistemi) 1981'de yapmıştır:[4] olumlu ve olumsuz gözlemlerden tümevarımlı olarak mantık programları çıkarsayan bir Prolog programı. Tümevarımlı Mantık Programlama terimininilk kullanımı[5] Stephen Muggleton'ın 1991 tarihli bir bildirisinde yapılmıştır.[6] Ayrıca her sene yapılan Inductive Logic Programming konferansının kurucusu olan Muggleton, yüklem türetme, ters çözümleme, ve ters gerektirme[7][8] kavramlarının fikir babasıdır. Muggleton ters gerektirmeyi ilk olarak PROGOL sisteminde gerçekleştirmiştir. Buradaki "tümevarım" kavramı matematiksel (bir özelliğin bir kümedeki her eleman için ispatlanması gibi) olmaktan çok felsefi (gözlemlenen olguları açıklayan bir kuram ortaya koymak gibi) bir tümevarımdır.

Biçimsel tanım

Bir mantıksal kuram olarak verilen artalan bilgisi B, genellikle mantık programlamada kullanılan Horn cümleleri şeklindedir. Gözetimli öğrenme için kullanılan olumlu ve olumsuz örnekler E+ ve E, temel ifadeler olarak verilir. Aşağıdaki gereklilikleri sağlayan bir mantıksal önermeye bir doğru hipotez h denir.[9] Zorunluluk:B⊭E+Yeterlilik:BhE+Zayıf tutarlılık:Bh⊭yanlışGüçlü tutarlılık:BhE⊭yanlış "Zorunluluk" hipotez h üzerinde herhangi bir kısıtlama yapmaz, ancak olumlu örnekler bir hipotez olmadan açıklanabilir olduğu sürece yeni bir hipotez oluşturulmasını engeller. "Yeterlilik" oluşturulan herhangi bir h hipotezinin tüm olumlu örnekleri (E+) açıklamasını gerektirir. "Zayıf tutarlılık" artalan bilgisi B ile çelişen bir hipotez h oluşturulmasını yasaklar. "Güçlü tutarlılık" ayrıca artalan bilgisi B ve olumsuz örnekler E ile çelişen bir hipotez h oluşturulmasını yasaklar; Zayıf tutarlılık'ı gerektirir; eğer hiç olumsuz örnek verilmemişse bu iki gereklilik aynıdır. Džeroski[10] yalnızca Yeterlilik ("Bütünlük" olarak adlandırır) ve Güçlü tutarlılık'ı gerekli tutar.

Kaynakça

Şablon:Kaynakça

  1. Plotkin G.D. Automatic Methods of Inductive Inference, PhD thesis, University of Edinburgh, 1970.
  2. Shapiro, Ehud Y. Inductive inference of theories from facts, Research Report 192, Yale University, Department of Computer Science, 1981.
  3. Shapiro, Ehud Y. (1983).
  4. Shapiro, Ehud Y. "The model inference system."
  5. Luc De Raedt.
  6. Şablon:Dergi kaynağı
  7. Muggleton S.H. and Buntine W. "Machine invention of first-order predicate by inverting resolution","Proceedings of the 5th International Conference on Machine Learning, 1988.
  8. Muggleton S.H., "Inverting entailment and Progol", New Generation Computing, 13:245-286, 1995.
  9. Şablon:Dergi kaynağı
  10. Şablon:Kaynak; here: Sect.5.2.4