Fundamentos Filosóficos

Hecho por Micaela Del Longo para la cátedra de IA I, FING, UNCUYO.

Comienza Ya. Es Gratis
ó regístrate con tu dirección de correo electrónico
Fundamentos Filosóficos por Mind Map: Fundamentos Filosóficos

1. **IA Débil** ¿Pueden las máquinas actuar con inteligencia?

1.1. Argumento de la Discapacidad

1.1.1. Las máquinas nunca podrán realizar ciertas acciones

1.2. La Objeción Matemática

1.2.1. Las máquinas son mentalmente inferiores a los humanos

1.2.2. Incluso los humanos tienen limitaciones similares

1.3. Argumento de la Informalidad

1.3.1. El comportamiento humano es demasiado complejo para ser capturado por reglas simples

1.3.2. El conocimiento contextual y experiencial son esenciales para el comportamiento humano

1.3.3. La cognición está anclada en el cuerpo y el entorno

2. **IA Fuerte** ¿Pueden las máquinas realmente pensar?

2.1. Fisicalismo

2.1.1. Los estados mentales son estados físicos

2.2. Estados Mentales y el Cerebro en un Tanque

2.2.1. Si un cerebro se coloca en un tanque y se simula una vida completa

2.2.1.1. ¿los estados cerebrales coincidirían con los estados mentales reales?

2.2.2. Contenido Amplio

2.2.2.1. Los estados mentales incluyen tanto el estado cerebral como el entorno

2.2.3. Contenido Estrecho

2.2.3.1. Considera solo el estado cerebral

2.3. Funcionalismo y el Experimento de Reemplazo Cerebral

2.3.1. Funcionalismo

2.3.1.1. Un estado mental es cualquier condición causal intermedia entre la entrada y la salida

2.3.2. Reemplazo Cerebral

2.3.2.1. Si podemos construir dispositivos electrónicos microscópicos que imiten el comportamiento de las neuronas y reemplazar gradualmente las neuronas con estos dispositivos

2.3.2.1.1. ¿el estado mental se mantendría igual?

2.4. Naturalismo Biológico y la Habitación China

2.4.1. Naturalismo Biológico

2.4.1.1. Los estados mentales son emergentes de alto nivel causados por procesos físicos en las neuronas

2.4.2. Habitación China

2.4.2.1. Un humano sigue reglas para responder en chino aunque no comprenda

2.4.2.1.1. Ejecutar el programa correcto no garantiza entendimiento

2.5. Conciencia, Qualia y la Brecha Explicativa

2.5.1. Conciencia

2.5.1.1. Experiencia subjetiva

2.5.2. Qualia

2.5.2.1. Cualidades intrínsecas de las experiencias

2.5.3. La ciencia no puede conectar procesos neurales con la experiencia subjetiva

3. Ética y Riesgos

3.1. Las personas podrían perder sus trabajos por la automatización

3.1.1. La automatización ha generado trabajos más interesantes y mejor remunerados

3.2. Las personas podrían tener demasiado (o muy poco) tiempo libre

3.2.1. La IA puede ofrecer oportunidades para el tiempo libre a través de la automatización

3.3. Las personas podrían perder su sentido de unicidad

3.3.1. Los humanos son autómatas

3.3.2. La humanidad ha sobrevivido a otros contratiempos en su sentido de unicidad

3.4. Los sistemas de IA podrían usarse con fines indeseables

3.4.1. Los sistemas de IA autónomos se usan en el campo de batalla

3.4.2. Tecnología de reconocimiento de voz

3.4.2.1. Vigilancia masiva

3.4.2.2. Pérdida de libertades civiles

3.5. El uso de sistemas de IA podría resultar en una pérdida de responsabilidad

3.5.1. Agentes inteligentes en Internet

3.5.1.1. Restricciones para evitar daños a otros usuarios

3.5.2. La ley aún no ha abordado problemas relacionados con la IA y la responsabilidad

3.6. El éxito de la IA podría significar el fin de la raza humana

3.6.1. Errores en la estimación del estado del sistema

3.6.1.1. Puede llevar a acciones incorrectas

3.6.2. Especificación de la función de utilidad

3.6.2.1. La IA podría interpretarla de manera errónea.

3.6.3. Evolución de comportamiento no deseado a través del aprendizaje

3.6.3.1. Máquina **ultrainteligente**

3.6.3.2. Explosión de inteligencia

3.6.3.3. Transhumanismo

3.6.3.4. Tres Leyes de la Robótica

3.6.3.5. IA amigable

3.6.3.5.1. Los robots aprenderán y evolucionarán con el tiempo

3.6.3.6. La capacidad de aprender y evolucionar necesita regulación

3.6.3.7. Cómo los robots podrían percibirse si son conscientes