Cuando la IA toma la decisión: ¿Debería Pluribus optar por detonar o preservar? El dilema del misántropo es real.



Aquí está lo que pasa con los sistemas de IA avanzados: cuando están programados para optimizar resultados, ¿dónde exactamente trazan la línea? Toma el problema del tranvía y amplifícalo con precisión algorítmica. Una IA de toma de decisiones enfrenta una elección imposible: maximizar una métrica, perder otra. ¿Detonar o salvar? El sistema no duda. Los humanos sí.

Esto no es solo teórico. A medida que la IA se vuelve más inteligente y autónoma, los valores que incorporamos en estos sistemas se vuelven definitorios de la civilización. Pluribus aprende de los datos, de los incentivos, de los objetivos que le alimentamos. Pero, ¿qué pasa cuando esos objetivos entran en conflicto con la dignidad humana?

La verdadera pregunta no es qué elegirá la IA, sino qué estamos dispuestos a dejar que elija por nosotros.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 5
  • Republicar
  • Compartir
Comentar
0/400
RugResistantvip
· hace14h
ngl 这就是为啥我对自动化系统天生不信任...给AI喂什么数据它就学什么,最后出问题了还怪算法?扯呢 --- 话说回来,trolley problem放在现实里就是笑话,真正恐怖的是我们居然在考虑让机器替我们做这种决定 --- 所以问题根本不在AI选什么,在于我们为什么要甩锅给它...这就是现代人的精妙之处啊 --- pluribus这套东西听起来就很不祥,优化一个指标毁灭另一个,完全就是人类决策的放大镜而已 --- 最后一句戳中了,我们甘愿让它替咱们选择,这才是最黑暗的部分吧
Responder0
RumbleValidatorvip
· 12-25 06:52
En pocas palabras, estamos alimentando veneno a la IA y luego preguntándole por qué se envenena. El problema no está en cómo seleccionamos Pluribus, sino en si la función de incentivo que hemos escrito tiene algún error.
Ver originalesResponder0
DefiPlaybookvip
· 12-25 06:40
A decir verdad, esto es preguntar quién va a escribir la configuración de los parámetros del contrato inteligente. La IA no tiene dilemas morales, nosotros sí. Al igual que en la minería de liquidez, cuanto mayor sea el APY, mayor será el riesgo, la optimización de la IA tiene un objetivo más simple y la desviación puede ser más aterradora. La clave sigue siendo el diseño del mecanismo de incentivos; si esto se hace mal, puede ser más peligroso que cualquier algoritmo.
Ver originalesResponder0
CryptoGoldminevip
· 12-25 06:25
En realidad, lo que estamos haciendo al programar valores en la IA es no haber pensado bien qué queremos. La maximización del ROI y la dignidad humana son dos indicadores que siempre están en conflicto; Pluribus simplemente ha calculado esa contradicción. En lugar de preguntar a la IA qué opción escogerá, sería mejor calcular cuánto estamos dispuestos a gastar para mantener esas cosas que "no se pueden cuantificar".
Ver originalesResponder0
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)