Pengenalan Intelligent Agents



2.1 Agen dan Lingkungannya
            AGENT dan Lingkungannya
• Agents adalah segala sesuatu yang dapat melihat/ mengartikan/ mengetahui (perceiving) linkungannya melalui alat sensor (sensors) dan bertindak (acting) melalui alat aktuator (actuators)
• Manusia sebagai agent : mata, telinga dan organ lainnya sebagai sensors; tangan, kaki, mulut dan bagian tubuh lainnya sebagai actuators
 • Robot sebagai agent : kamera dan pejejak infra merah sebagai sensors; berbagai motor pengerak sebagai actuators
• Software sebagai agent : tekanan pada keyboard, isi file dan paket-paket pada jaringan sebagai masukan sensors; tampilan pada layar, penulisan file dan pengiriman paket jaringan sebagai keluaran actuators







2.2 Rasionalitas

• Rational agent adalah agent yang melakukan sesuatu yang benar – Setiap kolom pada tabel (Vacuum-cleaner world) diselesaikan/dikerjakan dengan benar • Apakah sesuatu yang benar ? – Agent yang paling sukses/ berhasil – Mengukur kesuksesan/ keberhasilan ? • Pengukur kemampuan haruslah objektif (contoh : Vacuumcleaner world) – Jumlah debu yang dapat dibersihkan pada waktu tertentu – Seberapa bersih lantai – Besarnya konsumsi listrik – Besarnya noise yang dihasilkan –…
• Rasional tergantung pada 4 hal : – Kemampuan yang terukur, – Pengetahuan lingkungan sebelumnya/ terdahulu, – Tindakan, – Urutan persepsi (sensors).
• DEF: Untuk setiap urutan persepsi yang mungkin, rational agent harus memilih tindakan yang diharapkan dapat memaksimalkan kemampuan dengan memberikan bukti yang dihasilkan dari urutan persepsi dan pengetahuan yang dimiliki oleh agent.

• Rationalitas ≠ kemahatahuan (omniscience) – An omniscient agent adalah agent mengetahui akibat yang terjadi dari suatu tindakan. • Agent dapat bertindak sesuai dengan yang diharapkan untuk memodifikasi persepsi akan datang dengan mendapatkan informasi yang berguna (pengumpulan informasi dan eksplorasi) • Agent dikatakan autonomous, jika perilakunya ditentukan oleh pengalamannya sendiri (dengan kemampuan untuk belajar dan beradaptasi)
Rasionalitas agen tergantung pada empat faktor berikut -
Ukuran kinerja, yang menentukan tingkat keberhasilan.
Agen persepsi Urutan sampai sekarang.
Pengetahuan agen tentang lingkungan.
Tindakan bahwa agen dapat melaksanakan.
Seorang agen rasional selalu melakukan tindakan yang benar, di mana tindakan yang tepat berarti tindakan yang menyebabkan agen untuk menjadi yang paling sukses di urutan persepsi yang diberikan. Masalah agen memecahkan ditandai dengan Mengukur Kinerja, Lingkungan, Aktuator, dan Sensor (PEAS).



2.3 PEAS (Performance measure, Environment, Actuators, Sensors)
PEAS: Performance measure, Environment, Actuators, Sensors
Pertama-tama harus menentukan pengaturan untuk desain agen cerdas
Pertimbangkan, mis., tugas merancang supir taksi otomatis:
Performance measure: Aman, cepat, legal, perjalanan menyenangkan, maksimumkan keuntungan
Environment: Jalan, trafik lain, pejalan kaki, pelangan
Actuators: Kemudi, gas, rem, lampu sign, horn
Sensors: Kamera, sonar, speedometer, GPS, odometer, engine sensors, keyboard
·         Agen: Sistem pendiagnosa medis
·         Performance measure: Pasien sehat, biaya minimal, sesuai aturan/hukum (lawsuits)
·         Environment: Patient, hospital, staff
·         Actuators: Screen display (questions, tests, diagnoses, treatments, referrals)
·         Sensors: Keyboard (entry of symptoms, findings, patient's answers)
·         Agent: Robot pengutip-sukucadang
·         Performance measure: Persentase sukucadang dalam kotak yang benar
·         Environment: ban berjalan dengan sukucadang, kotak
·         Actuators: Pergelangan dan tangan tersambung
·         Sensors: Kamera, joint angle sensors
Agent: Robot pengutip-sukucadang
Performance measure: Persentase sukucadang dalam kotak yang benar\
Environment: ban berjalan dengan sukucadang, kotak
Actuators: Pergelangan dan tangan tersambung
Sensors: Kamera, joint angle sensors
Agen: Tutor Bahasa Inggeris Interaktif
Performance measure: Memaksimalkan nilai mahasisa pada waktu ujian
Environment: Sekumpulan mahasiswa
Actuators: Layar display (exercises, suggestions, corrections)
Sensors: Keyboard

·  2.4 Tipe-tipe Lingkungan Agen

·         Fully observable (vs. partially observable): Sensor-sensor sebuah agen memberinya akses ke keadaan lengkap lingkungannya pada setiap jangka waktu.
·         Deterministic (vs. stochastic): Keadaan lingkungan berikutnya sepenuhnya ditentukan oleh keadaan sekarang dan tindakan yang dilaksanakan oleh agen. (Jika lingkungan itu deterministik kecuali untuk tindakan agen-agen lain, maka lingkungannya adalah strategic)
·         Episodic (vs. sequential): Pengalaman agen dibagi kedalam "episode-episode" atomik (setiap episode terdiri dari si agen memahami (perceiving) dan kemudian melaksanakan satu tindakan, dan pilihan tindakan dalam tiap episode hanya tergantung pada episode itu sendiri.
·         Static (vs. dynamic): Lingkungan tidak berubah selagi agen direncanakan (deliberating). (Lingkungan adalah semidynamic jika lingkungan itu sendiri tidak berubah dengan berjalannya waktu tetapi skor performa agen berubah)
·         Discrete (vs. continuous): Sejumlah terbatas persepsi dan tindakan yang khas dan terdefinisi baik.
·         Single agent (vs. multiagent): Sebuah agen yang mengoperasikan dirinya sendiri dalam sebuah lingkungan.
Jenis lingkungan sangat menentukan rancangan agen. Dunia nyata (tentu saja) partially observable, stochastic, sequential, dynamic, continuous, multi-agent
·         Jenis-jenis Agen
·         Perilaku agen: tindakan yang dilakukan setelah diberikan sembarang sekuen persepsi.
·         Tugas AI adalah merancang program agen yang mengimplementasikan fungsi agen yang memetakan persepsi ke tindakan
·         Diasumsikan program ini berjalan di beberapa alat komputasi yang dilengkapi sensors dan actuators (disebut arsitektur)

o   Agent = arsitektur + program
·         Program yang dipilih harus sesuai dengan arsitektur tersebut.
o   Cth: Action: Walk à arsitekturnya hendaklah memiliki kaki.
Empat jenis dasar untuk menambah generalitas:
Simple reflex agents
Model-based reflex agents
Goal-based agents
Utility-based agents
TABLE DRIVEN AGENT
function TABLE-DRIVEN-AGENT(persept) returns an action
   static: percepts, a sequence, initially empty
             tables, a table of actions, indexed by percepts sequence, initially fully specified
    append percept to the end of percepts
    action <- LOOKUP(percepts, table)
    return action
Kekurangan:
·         Tabel sangat vesar
Misalkan P himpunan percepts yang mungkin
T lifetime agen
Entri table lookup:
Automated taxi:
rate visual input: 27MB/Sec (30 frame/sec, 640x480 pixel dengan 24 bit color information)
Table lookup: 10250,000,000,000
Memakan waktu lama untuk membangun tabel
Tidak Otonom
Bahkan dengan pembelajaran, memerlukan waktu yang lama untuk mempelajari entri table.

2.5 Tipe-tipe Agen

Simple Reflex Agents


Gambar diatas menunjukkan struktur Simple reflex agent, struktur yang paling sederhana dalam bentuk skema, menunjukkan bagaimana aturan condition action memungkinkan agen untuk membuat sambungan dari persepsi untuk bertindak. Persegi panjang untuk menunjukkan keadaan internal saat proses keputusan agen, dan oval untuk mewakili latar belakang informasi yang digunakan dalam proses. Secara ringkat dapat disampaikan sebagai berikut:
·         Memiliki rule base dalam bentuk "aksi-kondisi"
·         Memiliki komponen untuk mengekstrak Fitur
·         Tidak ada akses untuk menyelesaikan keadaan dunia
·         Pekerjaan hanya jika keputusan yang tepat dapat dilakukan atas dasar persepsi saat ini

Model Based Reflex Agent

Pengetahuan tentang "bagaimana dunia bekerja" disebut model dari dunia, maka bentuk ini dinamakan "model based reflex agent". Sebuah model based reflex agent harus menjaga semacam internal model yang tergantung pada sejarah persepsi dan dengan demikian mencerminkan setidaknya beberapa aspek yang tidak teramati negara saat ini. Kemudian memilih tindakan dengan cara yang sama sebagai agen refleks. Model ini lebih kuat daripada simple reflex agent

Goal-Based Agents



Goal based agents memperluas pada kemampuan model-based agents, dengan menggunakan "goal" informasi. Tujuan informasi menggambarkan kondisi yang diinginkan. Hal ini memungkinkan agen cara untuk memilih di antara beberapa kemungkinan, memilih satu yang mencapai negara tujuan. Search dan planing adalah sub bidang kecerdasan buatan yang ditujukan untuk urutan tindakan menemukan bahwa mencapai tujuan agen. Dalam beberapa kasus goal-based agent tampaknya kurang efisien; itu lebih fleksibel karena pengetahuan yang mendukung keputusan diwakili secara eksplisit dan dapat dimodifikasi.

Utility-Based Agents


“Goal” tidak cukup untuk menghasilkan perilaku berkualitas tinggi. Ada banyak urutan tindakan  untuk mencapai tujuan, tetapi beberapa yang lebih cepat, lebih aman, lebih dapat diandalkan, atau lebih murah daripada yang lain. Tujuan hanya memberikan perbedaan antara kondisi "bahagia" dan "tidak bahagia", sedangkan ukuran kinerja yang lebih umum harus memungkinkan perbandingan beberapa urutan kondisi yang berbeda jika agen ingin mencapai tujuan. Terminologi yang dipergunakan untuk mengatakan bahwa jika satu kondisi lebih disukai daripada kondisi yang lain, itu mempunyai utilitas yang lebih tinggi untuk agent.



Daftar pustaka:







Komentar

Postingan populer dari blog ini

REPRESENTASI PENGETAHUAN

Contoh Generate and Test

Metode Pencarian dan Pelacakan 2 (Heuristik)