Inteligencia artificial para videojuegos/Conocimiento incierto

En la vida real casi nunca estamos totalmente seguros de conocer la verdad, esto es lo que se denomina incertidumbre. La incertidumbre aparece en entornos no deterministas y/o parcialmente visibles (no contamos con toda la información, tan sólo una parte). Una forma de trabajar con la incertidumbre es con la Teoría de la Probabilidad.

Incertidumbre y probabilidad editar

Lo racional es elegir tus acciones dependiendo de tus preferencias y del grado de probabilidad (medido de 0 a 1) de que funcionen.

Hay acciones que por pereza o ignorancia no tiene sentido que se modelen con lógica, sino con probabilidad

Por ejemplo, disparar a un enemigo:

Con lógica, para ser exactos: DisparoEnemigo ^ EnemigoHerido ^ EnemigoSinEscudo... → MuerteEnemigo v FinOleada v AlertaActivada...

Con probabilidad, mucho más sencillo: Disparar al enemigo lo mata con un 0.74 de probabilidad.

Tomar decisiones editar

Para decidir racionalmente, el agente necesita conocer la preferencia de los estados resultantes tras realizar una acción concreta, así como su probabilidad.

Con el objetivo de maximizar el rendimiento, un agente debe elegir la acción cuya utilidad promedio sea mayor. Con los estados resultantes de aplicar dicha acción y la probabilidad de que ocurra cada uno de ellos se obtiene la utilidad en promedio . La utilidad ponderada que según su probabilidad sea mayor, será la acción preferente a escoger.

Ejemplo: Considerando la posibilidad de disparar

Acción (probabilidad) Estado resultante (utilidad)
Disparo (0.7) Yo sobrevivo, el enemigo muere (+100)
Disparo (0.25) Yo sobrevivo, el enemigo también (-1)
Disparo (0.04) Ambos morimos (-400)
Disparo (0.01) Yo muero, el enemigo sobrevive (-501)

100 * 0.7 - 1 * 0.25 - 400 * 0.04 - 500 * 0.01 = 48.74 sería la utilidad promedio de disparar.

Si otra acción obtuviera una mayor utilidad, entonces debería escogerse dicha acción puesto que es más probable que sea mejor opción.

Formalizar la probabilidad editar

En Probabilidad se trabaja con todos los mundos posibles, el espacio de muestra, sin embargo, como pasa en Lógica, sólo uno puede ser verdad.

Un modelo de probabilidad P nos asocia a cada mundo posible (w), su probabilidad de ser verdad.

0 <= P(w) <= 1 para cada w y Σ P(w) = 1 (sumatorio de cada probabilidad de w en el espacio de muestra)

La probabilidad de un proposición formal (ɸ) es la suma de las de todos los mundos que representa. Esta probabilidad puede ser incondicional (P(ɸ)) o condicional, si ya sabemos una evidencia "e" que es verdad (P(ɸ|e).

P(ɸ) = Σ P(w) (sumatorio de cada probabilidad de w en ɸ)

La probabilidad condicional se puede calcular con probabilidades incondicionales : P(a|b) = P(a^b)/P(b).

Según la semántica habitual, un mundo posible se define asignando valores a todas las variables a considerar. El modelo queda determinado por la distribución de probabilidad conjunta de todas esas (N) variables.

Este modelo se suele representar como una tabla N-dimensional y sirve de Base de Conocimiento con la que es posible responder cualquier consulta.

a a
b ¬b
c 0.1 0.1
¬c 0.05 0.35
¬a ¬a
b ¬b
c 0.15 0.1
¬c 0.1 0.05

Ejemplo: P(b) = 0.1 + 0.05 + 0.15 + 0.1 = 0.4

Inferir con distribuciones conjuntas editar

Se puede hacer inferencia con estas tablas usando reglas como:

  • Marginalización: P(Y) = Σ P(Y,z) para toda z que pertenece a Z.
  • Condiccionamiento: P(Y) = Σ P(Y|z)P(z) para cada z.
  • Normalización: P(X|e) = αP(X,e) = α Σ P(X,e,y) para cada y.

Regla de Bayes editar

A esta forma de expresar la probabilidad condicional se le llama regla de Bayes, y es un teorema clave que permite inferir en dirección casual(efecto→causa) y a veces diagnóstica (causa→efecto). P(Y|X) = P(X|Y)P(Y)/P(X), X = efecto e Y = causa.

Puede haber variables condicionalmente independientes dado otro evento P(X,Y|Z) = P(X|Z)P(Y|Z).

Modelo naíf de Bayes editar

Cuando se trabaja con este patrón habitual, sólo hay una única causa que influye en muchos efectos, todos ellos condicionalmente independientes entre sí, dada dicha causa P(Causa, Efecto1,.., EfectoN).

Esta distribución conjunta se llama modelo naíf de Bayes.

Participantes editar