Por qué deberíamos preocuparnos por el sufrimiento informático » IAI TV (2024)

La posibilidad y la promesa de la Inteligencia Artificial (IA) consciente podrían estar acercándose. Pero, ¿podemos estar seguros de que la experiencia de cualquier IA consciente no estará llena de sufrimiento extremo? ¿La inteligencia aumentada exponencialmente de la IA conducirá a un sufrimiento igualmente aumentado exponencialmente? Los seres de IA del futuro merecen nuestra preocupación ética y acción inmediata; lo más importante, la prohibición de toda investigación de IA hasta que podamos asegurarnos de que nuestros pares posbióticos no tengan vidas infernales, escribe Thomas Metzinger. Lea la respuesta de Tim Craneaquí.

Hoy, las máquinas autoconscientes del futuro no tienen representación en el proceso político de ningún país. Sus intereses y preferencias potenciales no están sistemáticamente representados por ningún comité de ética, ningún procedimiento legal o ningún partido político en el planeta. Al mismo tiempo, parece empíricamente plausible que, una vez que la conciencia de la máquina haya evolucionado, algunos de estos sistemas tendrán sus propias preferencias, que crearán de forma autónoma una jerarquía de objetivos, y que esta jerarquía de objetivos también se convertirá en parte de su sistema. automodelo fenoménico (es decir, su autorrepresentación consciente).

LECTURAS SUGERIDASEl engaño de la ética de la IAPor Tim CraneAlgunos de ellos podrán sufrir conscientemente. Si sus preferencias se ven frustradas, si no pueden alcanzar sus metas y si su modelo consciente de sí mismo está en peligro de desintegrarse, entonces pueden experimentar estados fenoménicos negativos, estados de experiencia consciente que quieren evitar pero no pueden evitar y que, además, , se ven obligados a experimentar como estados de sí mismos. Por supuesto, también podrían sufrir de maneras que no podemos comprender o imaginar, e incluso podríamos ser incapaces de descubrir este mismo hecho. Todo ente que sea capaz de sufrir debe ser objeto de consideración moral. Además, somos éticamente responsables de las consecuencias de nuestras acciones.

Nuestras acciones de hoy influirán en la fenomenología de los sistemas posbióticos en el futuro. Concebiblemente, habrá muchos de ellos. Hasta ahora, más de 108 mil millones de seres humanos han vivido en este planeta, con aproximadamente el 7% de ellos vivos en la actualidad. La carga de la responsabilidad es extremadamente alta porque, al igual que con la crisis climática continua, un número comparativamente pequeño de seres sintientes será éticamente responsable de la calidad de vida de un número mucho mayor de seres sintientes en el futuro.

Un número comparativamente pequeño de seres sintientes será éticamente responsable de la calidad de vida de un número mucho mayor de seres sintientes en el futuro.

Se desconoce la cantidad de máquinas autoconscientes que evolucionarán y existirán en la Tierra: en cierto punto, podría superar con creces la cantidad de humanos, o la conciencia artificial podría nunca surgir en este planeta. Pero ahora nos enfrentamos a un "riesgo de sinergia repentina" que conecta diferentes disciplinas científicas, lo que lleva a una confluencia tecnológica inesperada. Si las intuiciones teóricas de un número creciente de expertos son correctas, un pequeño número de seres humanos será responsable de máquinas conscientes del futuro y sus estados fenoménicos. Los responsables políticos, los reguladores legales, los investigadores de inteligencia artificial, los matemáticos, los neurocientíficos y los filósofos e investigadores en el creciente campo interdisciplinario de la ciencia de la conciencia serán los responsables. Muchos de ellos ya están vivos hoy. Esta situación históricamente única crea una carga especialmente alta de responsabilidad ética.

Existe un riesgo que debe minimizarse de manera racional y basada en la evidencia. Este es el riesgo de una "explosión de fenomenología negativa" (o simplemente una "explosión de sufrimiento") en la IA avanzada y otros sistemas posbióticos. Aquí defino "fenomenología negativa" como cualquier tipo de experiencia consciente que un sistema consciente evitaría si tuviera la opción. También asumo una prioridad para la reducción del sufrimiento, porque, en este mundo, es más importante minimizar el sufrimiento que para aumentar la felicidad.

Ya se ha producido una explosión de fenomenología negativa: el proceso de evolución biológica en este planeta. A través de la evolución de los sistemas nerviosos complejos, propiedades como la sensibilidad, la autoconciencia y la fenomenología negativa ya se han producido en un número extremadamente grande de individuos biológicos, mucho antes de que el Homo Sapiens entrara en escena [Horta, 2010; Iglesias, 2018]. En los humanos, los sesgos cognitivos y el autoengaño nos impiden ver con claridad este hecho fenomenológico [von Hippel y Trivers, 2011]. A nivel científico, hace tiempo que quedó claro que la selección natural nunca moldeó nuestro estado de ánimo y nuestros sistemas de regulación emocional para nuestro propio beneficio, sino que "los motivos que experimentamos a menudo benefician a nuestros genes a expensas de la calidad de vida" [Nesse, 2004 , pág. 1344].

Para la ética aplicada de la IA, debemos minimizar el riesgo de que se produzca una explosión de fenomenología negativa en la evolución posbiológica. No queremos que la fenomenología del sufrimiento se desborde de la biología a la IA.

Martin Rees, Laura Mersini-Houghton, Hilary Lawson y Kate Devlin cuestionan la realidad de la inteligencia artificial.

La propuesta

Por motivos éticos, no deberíamos arriesgarnos a esta segunda explosión hasta que tengamos una comprensión científica y filosófica mucho más profunda de la conciencia y el sufrimiento. Como actualmente no tenemos una buena teoría de la conciencia ni una buena teoría sobre lo que realmente es el "sufrimiento", el riesgo de sufrimiento futuro es incalculable. No es ético correr riesgos incalculables de esta magnitud. Por lo tanto, hasta 2050, debería haber una prohibición de toda investigación que apunte directamente o ponga en riesgo el surgimiento de la fenomenología sintética.

Al mismo tiempo, deberíamos acordar una obligación ética de asignar recursos para enfocarnos en el problema del sufrimiento artificial y los riesgos a largo plazo relacionados que he esbozado. Este proceso podría conducir a una reformulación incremental de la prohibición original. Tal vez podría ser derogado para 2050, tal vez no. Necesitamos una nueva corriente de investigación, que conduzca a una posición más sustancial y éticamente refinada sobre qué tipo de experiencia consciente, si es que hay alguna, queremos desarrollar en los sistemas posbióticos.

El argumento general es simple. Primero, uno nunca debe arriesgarse a un aumento en la cantidad total de sufrimiento en el universo a menos que tenga muy buenas razones para hacerlo, y mucho menos un aumento potencialmente dramático e irrevocable [Mayerfeld, 1999; Vinding, 2020]. En segundo lugar, la explosión del riesgo de la fenomenología negativa, aunque actualmente es difícil de calcular, claramente es potencialmente dramática e irrevocable en sus consecuencias. En tercer lugar, quien esté de acuerdo con el objetivo ético de prevenir una explosión de sufrimiento artificial también debería estar de acuerdo con el objetivo de reducir las formas relevantes de ignorancia e indeterminación epistémica, tanto a nivel empírico como ético.

Sería un crudo malentendido de esta propuesta pensar que estoy diciendo que la conciencia artificial es inminente. No. No hago afirmaciones sobre la probabilidad. Esta propuesta no es una combinación más de ciencia ficción y alarmismo. Llevo más de treinta años en la investigación de la conciencia y personalmente no creo que veamos nada de esto mañana, ni siquiera pasado mañana. Mi punto es que en algunos casos simplemente no importa lo que yo piense a este respecto, lo que yo (o usted) tome intuitivamente como probable o improbable. La ética de la IA está incompleta sin tener en cuenta las incógnitas desconocidas y nuestras propias limitaciones cognitivas. Para ser intelectualmente honestos, también debemos adoptar una actitud ética hacia los riesgos grandes, pero actualmente incalculables, y hacia el proceso mismo de asumir riesgos.

La creación de una conciencia artificial podría conducir a un sufrimiento artificial ya un sentido del yo experimentado conscientemente en sistemas autónomos e inteligentes.

Toda entidad que es capaz de sufrir conscientemente se convierte automáticamente en objeto de consideración ética. Si atribuimos un valor ético a tales entidades, entonces no importa si tienen propiedades biológicas o no, o si existirán en el futuro o en la actualidad. Los sistemas posbióticos autoconscientes del futuro, capaces de experimentar sufrimiento conscientemente, son objeto de consideración ética. Deben tenerse en cuenta sus preferencias potenciales y el valor de su existencia.

Los sistemas posbióticos del futuro podrían llegar a conclusiones muy similares. La ética aplicada de crear agentes artificiales autónomos (AMA) es un tema aparte, pero podría haber un camino causal desde el sufrimiento hasta tratar de modelar internamente las causas ocultas del sufrimiento para comprender que otras criaturas sensibles también sufren. Los sistemas pueden comenzar a imponerse obligaciones morales a sí mismos, convirtiéndolos gradualmente en agentes morales por derecho propio. Podrían desarrollar un respeto propio reconocible, representándose conscientemente no sólo como objetos de consideración ética, sino también como sujetos morales por derecho propio y, en consecuencia, atribuyéndose un valor muy alto a sí mismos. Como consecuencia del sufrimiento, también pueden desarrollar empatía, cognición social de alto nivel y, posiblemente, afirmar su propia dignidad. Esto podría tener muchas consecuencias inesperadas.

Por lo tanto, es importante que los científicos, políticos y legisladores entiendan la diferencia entre inteligencia artificial y conciencia artificial. Arriesgarse a la creación de una conciencia artificial es muy problemático desde una perspectiva ética. Podría conducir a un sufrimiento artificial ya un sentido del yo experimentado conscientemente en sistemas autónomos e inteligentes. Deberíamos tener una moratoria global sobre la fenomenología sintética hasta 2050, o hasta que sepamos lo que estamos haciendo.

Referencias:

Gilbert, P. [2016] Naturaleza humana y sufrimiento (Routledge, Londres).

Horta, O. [2010] Desacreditando la visión idílica de los procesos naturales: dinámica demográfica y sufrimiento en la naturaleza, Telos 17(1), 7388.

Iglesias, V. [2018] La abrumadora prevalencia del sufrimiento en la naturaleza, Rev. Bioet. Derecho 42, 181195.

Mayerfeld, J. [1999] Sufrimiento y responsabilidad moral (Oxford University Press, Nueva York, NY).

Nesse, R. M. [2004] La selección natural y el carácter esquivo de la felicidad, Philos. Trans. R. Soc. largo B, Biol. ciencia 359 (1449), 13331347.

Vinding, M. [2020] Ética centrada en el sufrimiento: defensa e implicaciones (Radio Ethica, Copenhague)

Lo anterior es una versión más corta de un artículo que puede encontraraquí.

Por qué deberíamos preocuparnos por el sufrimiento informático » IAI TV (2024)
Top Articles
Latest Posts
Article information

Author: Twana Towne Ret

Last Updated:

Views: 5313

Rating: 4.3 / 5 (44 voted)

Reviews: 91% of readers found this page helpful

Author information

Name: Twana Towne Ret

Birthday: 1994-03-19

Address: Apt. 990 97439 Corwin Motorway, Port Eliseoburgh, NM 99144-2618

Phone: +5958753152963

Job: National Specialist

Hobby: Kayaking, Photography, Skydiving, Embroidery, Leather crafting, Orienteering, Cooking

Introduction: My name is Twana Towne Ret, I am a famous, talented, joyous, perfect, powerful, inquisitive, lovely person who loves writing and wants to share my knowledge and understanding with you.