Pengenalan Intelligent Agents
2.1 Agen dan Lingkungannya
AGENT dan Lingkungannya
• Agents adalah segala
sesuatu yang dapat melihat/ mengartikan/ mengetahui (perceiving) linkungannya
melalui alat sensor (sensors) dan bertindak (acting) melalui alat aktuator
(actuators)
• Manusia sebagai agent :
mata, telinga dan organ lainnya sebagai sensors; tangan, kaki, mulut dan bagian
tubuh lainnya sebagai actuators
• Robot sebagai agent : kamera dan pejejak
infra merah sebagai sensors; berbagai motor pengerak sebagai actuators
• Software sebagai agent :
tekanan pada keyboard, isi file dan paket-paket pada jaringan sebagai masukan
sensors; tampilan pada layar, penulisan file dan pengiriman paket jaringan
sebagai keluaran actuators
2.2 Rasionalitas
• Rational agent adalah
agent yang melakukan sesuatu yang benar – Setiap kolom pada tabel
(Vacuum-cleaner world) diselesaikan/dikerjakan dengan benar • Apakah sesuatu
yang benar ? – Agent yang paling sukses/ berhasil – Mengukur kesuksesan/
keberhasilan ? • Pengukur kemampuan haruslah objektif (contoh : Vacuumcleaner
world) – Jumlah debu yang dapat dibersihkan pada waktu tertentu – Seberapa
bersih lantai – Besarnya konsumsi listrik – Besarnya noise yang dihasilkan –…
• Rasional tergantung pada 4
hal : – Kemampuan yang terukur, – Pengetahuan lingkungan sebelumnya/ terdahulu,
– Tindakan, – Urutan persepsi (sensors).
• DEF: Untuk setiap urutan
persepsi yang mungkin, rational agent harus memilih tindakan yang diharapkan
dapat memaksimalkan kemampuan dengan memberikan bukti yang dihasilkan dari
urutan persepsi dan pengetahuan yang dimiliki oleh agent.
• Rationalitas ≠
kemahatahuan (omniscience) – An omniscient agent adalah agent mengetahui akibat
yang terjadi dari suatu tindakan. • Agent dapat bertindak sesuai dengan yang
diharapkan untuk memodifikasi persepsi akan datang dengan mendapatkan informasi
yang berguna (pengumpulan informasi dan eksplorasi) • Agent dikatakan
autonomous, jika perilakunya ditentukan oleh pengalamannya sendiri (dengan
kemampuan untuk belajar dan beradaptasi)
Rasionalitas agen tergantung
pada empat faktor berikut -
Ukuran kinerja, yang
menentukan tingkat keberhasilan.
Agen persepsi Urutan
sampai sekarang.
Pengetahuan
agen tentang lingkungan.
Tindakan bahwa agen dapat
melaksanakan.
Seorang agen rasional selalu
melakukan tindakan yang benar, di mana tindakan yang tepat berarti tindakan
yang menyebabkan agen untuk menjadi yang paling sukses di urutan persepsi yang
diberikan. Masalah agen memecahkan ditandai dengan Mengukur Kinerja, Lingkungan,
Aktuator, dan Sensor (PEAS).
2.3 PEAS (Performance
measure, Environment, Actuators, Sensors)
PEAS: Performance measure, Environment, Actuators,
Sensors
Pertama-tama harus menentukan pengaturan untuk desain
agen cerdas
Pertimbangkan, mis., tugas merancang supir taksi
otomatis:
Performance measure: Aman, cepat, legal, perjalanan
menyenangkan, maksimumkan keuntungan
Environment: Jalan, trafik lain, pejalan kaki, pelangan
Actuators: Kemudi, gas, rem, lampu sign, horn
Sensors: Kamera, sonar, speedometer, GPS, odometer,
engine sensors, keyboard
· Agen:
Sistem pendiagnosa medis
· Performance
measure: Pasien sehat, biaya minimal, sesuai aturan/hukum (lawsuits)
· Environment:
Patient, hospital, staff
· Actuators:
Screen display (questions, tests, diagnoses, treatments, referrals)
· Sensors:
Keyboard (entry of symptoms, findings, patient's answers)
· Agent:
Robot pengutip-sukucadang
· Performance
measure: Persentase sukucadang dalam kotak yang benar
· Environment:
ban berjalan dengan sukucadang, kotak
· Actuators:
Pergelangan dan tangan tersambung
· Sensors:
Kamera, joint angle sensors
Agent: Robot pengutip-sukucadang
Performance measure: Persentase sukucadang dalam kotak
yang benar\
Environment: ban berjalan dengan sukucadang, kotak
Actuators: Pergelangan dan tangan tersambung
Sensors: Kamera, joint angle sensors
Agen: Tutor Bahasa Inggeris Interaktif
Performance measure: Memaksimalkan nilai mahasisa pada
waktu ujian
Environment: Sekumpulan mahasiswa
Actuators: Layar display (exercises, suggestions,
corrections)
Sensors: Keyboard
· 2.4 Tipe-tipe Lingkungan
Agen
· Fully
observable (vs. partially observable): Sensor-sensor sebuah agen memberinya
akses ke keadaan lengkap lingkungannya pada setiap jangka waktu.
· Deterministic
(vs. stochastic): Keadaan lingkungan berikutnya sepenuhnya ditentukan oleh
keadaan sekarang dan tindakan yang dilaksanakan oleh agen. (Jika lingkungan itu
deterministik kecuali untuk tindakan agen-agen lain, maka lingkungannya adalah
strategic)
· Episodic
(vs. sequential): Pengalaman agen dibagi kedalam "episode-episode"
atomik (setiap episode terdiri dari si agen memahami (perceiving) dan kemudian
melaksanakan satu tindakan, dan pilihan tindakan dalam tiap episode hanya
tergantung pada episode itu sendiri.
· Static
(vs. dynamic): Lingkungan tidak berubah selagi agen direncanakan
(deliberating). (Lingkungan adalah semidynamic jika lingkungan itu sendiri
tidak berubah dengan berjalannya waktu tetapi skor performa agen berubah)
· Discrete
(vs. continuous): Sejumlah terbatas persepsi dan tindakan yang khas dan
terdefinisi baik.
· Single
agent (vs. multiagent): Sebuah agen yang mengoperasikan dirinya sendiri dalam
sebuah lingkungan.
Jenis lingkungan sangat menentukan rancangan
agen. Dunia nyata (tentu saja) partially observable, stochastic,
sequential, dynamic, continuous, multi-agent
· Jenis-jenis
Agen
· Perilaku
agen: tindakan yang dilakukan setelah diberikan sembarang sekuen persepsi.
· Tugas
AI adalah merancang program agen yang mengimplementasikan fungsi agen yang
memetakan persepsi ke tindakan
· Diasumsikan
program ini berjalan di beberapa alat komputasi yang dilengkapi sensors dan
actuators (disebut arsitektur)
o Agent = arsitektur + program
· Program
yang dipilih harus sesuai dengan arsitektur tersebut.
o Cth: Action:
Walk à arsitekturnya hendaklah memiliki kaki.
Empat jenis dasar untuk menambah generalitas:
Simple reflex agents
Model-based reflex agents
Goal-based agents
Utility-based agents
TABLE DRIVEN AGENT
function TABLE-DRIVEN-AGENT(persept) returns an action
static: percepts, a sequence,
initially empty
tables,
a table of actions, indexed by percepts sequence, initially fully specified
append percept to the
end of percepts
action <-
LOOKUP(percepts, table)
return action
Kekurangan:
· Tabel
sangat vesar
Misalkan P himpunan percepts yang mungkin
T lifetime agen
Entri table lookup:
Automated taxi:
rate visual input: 27MB/Sec (30 frame/sec, 640x480 pixel
dengan 24 bit color information)
Table lookup: 10250,000,000,000
Memakan waktu lama untuk membangun tabel
Tidak Otonom
Bahkan dengan pembelajaran, memerlukan waktu yang lama
untuk mempelajari entri table.
2.5 Tipe-tipe Agen
Simple Reflex Agents
Gambar diatas menunjukkan struktur Simple reflex agent,
struktur yang paling
sederhana dalam bentuk skema, menunjukkan
bagaimana aturan condition
action memungkinkan agen untuk membuat sambungan dari persepsi untuk
bertindak. Persegi
panjang untuk menunjukkan keadaan internal saat proses keputusan agen,
dan oval untuk mewakili latar belakang informasi
yang digunakan dalam proses. Secara ringkat dapat disampaikan sebagai
berikut:
· Memiliki rule base dalam bentuk
"aksi-kondisi"
· Memiliki komponen untuk mengekstrak Fitur
· Tidak
ada akses untuk menyelesaikan keadaan dunia
· Pekerjaan
hanya jika keputusan yang tepat dapat dilakukan atas dasar persepsi saat ini
Model Based Reflex
Agent
Pengetahuan tentang
"bagaimana dunia bekerja" disebut model dari dunia, maka bentuk ini
dinamakan "model based reflex agent". Sebuah model based reflex agent
harus menjaga semacam internal model yang tergantung pada sejarah persepsi dan
dengan demikian mencerminkan setidaknya beberapa aspek yang tidak teramati
negara saat ini. Kemudian memilih tindakan dengan cara yang sama sebagai agen
refleks. Model ini lebih kuat daripada simple reflex agent
Goal-Based Agents
Goal based agents
memperluas pada kemampuan model-based agents, dengan menggunakan
"goal" informasi. Tujuan informasi menggambarkan kondisi yang
diinginkan. Hal ini memungkinkan agen cara untuk memilih di antara beberapa
kemungkinan, memilih satu yang mencapai negara tujuan. Search dan planing
adalah sub bidang kecerdasan buatan yang ditujukan untuk urutan tindakan
menemukan bahwa mencapai tujuan agen. Dalam beberapa kasus goal-based agent
tampaknya kurang efisien; itu lebih fleksibel karena pengetahuan yang mendukung
keputusan diwakili secara eksplisit dan dapat dimodifikasi.
Utility-Based Agents
“Goal” tidak cukup
untuk menghasilkan perilaku berkualitas tinggi. Ada banyak urutan
tindakan untuk mencapai tujuan, tetapi beberapa yang lebih cepat, lebih
aman, lebih dapat diandalkan, atau lebih murah daripada yang lain. Tujuan hanya
memberikan perbedaan antara kondisi "bahagia" dan "tidak
bahagia", sedangkan ukuran kinerja yang lebih umum harus memungkinkan
perbandingan beberapa urutan kondisi yang berbeda jika agen ingin mencapai tujuan.
Terminologi yang dipergunakan untuk mengatakan bahwa jika satu kondisi lebih
disukai daripada kondisi yang lain, itu mempunyai utilitas yang lebih tinggi
untuk agent.
Daftar pustaka:
Komentar
Posting Komentar