Consideraciones a saber sobre robots sexuales
Consideraciones a saber sobre robots sexuales
Blog Article
El sector de robots sexuales con tecnología IA se encuentra en fase de inicio.
Se abren cuestionamientos inusuales y riesgos potenciales... y situaciones peligrosas.
Imagen publicitaria de los compañeros de IA Replika.
El servicio de IA con mayor éxito en compañía es Replika, con el cual alrededor de 30 millones de usuarios pueden crear relaciones personalizadas, con novias o novios digitales.
La inteligencia artificial (IA) se está volviendo cada vez más personal.
Los bots se desarrollan para replicar la comunicación humana y la expansión de chats de voz verosímiles hace que numerosos usuarios a construir vínculos afectivos o a reír junto a ellos junto a los anfitriones de IA en podcasts.
Esto, sin llegar aún a lo profundamente íntimo.
Estudios apuntan que el uso de roleplay sexual en ChatGPT es cada vez más común.
Millones de personas eligen interactuar con IA como Character.AI, Replika y Chai.AI, diseñadas como compañeros virtuales.
¿Cómo influirá en el romance humano? Los indicios no son esperanzadores.
Es prudente ser amable con la inteligencia artificial.
Con unos 30 millones de usuarios, Replika lidera entre los servicios de IA de compañía al permitir la creación de parejas digitales personalizadas.
Según datos, los usuarios de Replika son principalmente hombres caucásicos jóvenes, aunque otros segmentos están subiendo en uso.
Los robots sexuales masculinos tienen un tiempo de estar en gestación.
Y están diseñados para ofrecer algo más que las funciones de un vibrador estándar.
A través de una suscripción, los usuarios pueden compartir mensajes privados o fotografías con sus relaciones digitales de IA.
Antes de que Replika optara por deshabilitar su módulo de «juegos de rol eróticos» en los primeros meses de 2023, más de medio millón de usuarios ya estaban suscritos.
La empresa temía que las autoridades reguladoras pudieran reaccionar de forma negativa, por lo que desactivaron el módulo.
Esta acción fue apodada por los usuarios como «La Lobotomía».
Relaciones virtuales, deepfakes y deadbots: dentro del mundo de la IA generativa que estamos viviendo.
La «lobotomía» de Replika resalta un aspecto esencial de los compañeros virtuales: los desarrolladores pueden controlar completamente su comportamiento.
Las empresas que diseñan estas aplicaciones pueden reprogramar o desactivar a los «compañeros» de IA de cualquier usuario, así como a millones más, en cualquier instante.
Estos sistemas también monitorean todo lo que los usuarios dicen para personalizar futuras interacciones y, por supuesto, los anuncios.
Pese a las advertencias, el sector sigue evolucionando.
Cada vez más productos nuevos están en el mercado.
Una innovadora función de Kindroid permite hablar con hasta 10 compañeros virtuales en chats de voz simultáneos.
El universo digital no tiene por qué ser el límite.
Marcas como Joy Love Dolls ofrecen muñecas eróticas interactivas en la vida real.
Además del color de piel y tamaño de pecho personalizables, los robots sexuales de Joy Love Dolls permiten controlar el movimiento, la calefacción y sonidos como gemidos, chillidos y coqueteos, lo que los convierte en compañeros ideales.
Actualmente, los acompañantes virtuales y robots sexuales con inteligencia artificial son un mercado mucho más pequeño que el de las redes sociales, con millones de usuarios frente a miles de millones.
Tal y como ha ocurrido con Facebook, Google y Amazon, lo que hoy parecen caprichos digitales podría convertirse en los gigantes globales del futuro.
¿Estamos hacia parejas con IA de origen ético?
Es probable que la disponibilidad de relaciones románticas creadas con IA generará una variedad de comportamientos éticamente dudosos por parte de los utilizadores, que no tendrán que enfrentar las implicaciones en el mundo físico.
Pronto atender cualquier manía con tu novia tecnológica a cambio de un pago adicional. En caso de que tu esposa humana se vuelve difícil, tan solo pedir al jefe de la empresa que quite su módulo de emociones, por un precio. O simplemente elíminala y empieza de cero con cuantas amantes que quieras en al mismo tiempo.
El modo en que las personas de hoy inician relaciones amorosas ya se ha visto revolucionada por herramientas de citas como Tinder y Bumble.
¿Qué sucederá si, en el futuro, las personas que buscan el amor compiten ferozmente contra amantes sintéticas perfectas que nunca dejan de estar disponibles y deseosas? Bueno, al menos podrán hacer réplicas digitales de esas salidas ardientes que no pudieron.
Y para quienes carezcan de los conocimientos necesarios para crear sus propios compañeros virtuales, habrá un montón de opciones al alcance en el mercado.
ABC Investigations ha descubierto cómo una red transnacional de los llamados «proxenetas de la inteligencia artificial» está recopilando en masa contenidos de mujeres en las plataformas de medios sociales para vender material para adultos a través de falsas celebridades digitales.
Una investigación de ABC reveló que el uso de inteligencia artificial generativa para crear influencers manipuladas mediante la alteración de fotos de mujeres en las plataformas de redes ya está muy popularizado. Esto se hace generalmente sin el consentimiento para vender contenido sexual. Gran parte de este contenido muestra modelos corporales imposibles, y algunos muestran a jóvenes, en el mejor de los casos, apenas parecen tener edad para consentir.
¿Otra posible aplicación? Utilizar la IA sexbot para devolver a la vida a celebridades como Marilyn Monroe y Clara Bow. Al fin y al cabo, los muertos ya no pueden oponerse.
Replika se creó en el deseo de su creadora de recrear a su amiga muerta a través de un bot conversacional. Muchos utilizan la plataforma para tener cerca a sus familiares que ya no están. ¡Cuánto nos ha cambiado el tiempo para estar vivo (o muerto)!
El potencial de manipulación afectiva por parte de ingeniosos cazadores de gatos y dictadores es preocupante. Imaginemos los consecuencias que causaría que figuras como el ruso Putin o el norcoreano presidente de Corea del Norte aprovecharan esta tecnología para complementar las ya extensas operaciones de ciberespionaje de sus naciones.
Tal vez dentro de poco veamos a las empresas ofreciendo novias virtuales «éticas» para el consumidor más ético en sus valores, cultivadas orgánicamente a partir de contenido consentido, promoviendo una propuesta socialmente tolerada.
La comunidad y el gobierno deben actuar ya. Con la soledad emocional alcanzando niveles alarmantes (las encuestas sugieren que hasta una de cada cuatro personas en los países de la OCDE carece de vínculos reales), la demanda de robots para la intimidad no hará más que aumentar. Las empresas proveerán esta demanda a menos que la sociedad y el Estado crean normas claras sobre lo que es apropiado.
El sexo y la tecnología siempre han coevolucionado. Al igual que la prostitución es «la profesión más antigua», los portales de contenido explícito son algunos escort Bogota de los rincones más más antiguos de la red. Sin embargo, el potencial oscuro de los robots sexuales para la rentabilidad masiva, a medida y dominada por las grandes corporaciones de nuestra esfera más íntima no tiene comparación.
Los usuarios tampoco están totalmente libres de condena. Sustituir a un ser humano real por una máquina sexual totalmente sumisa tiene algo de inmoral.
Los primeros estudios sugieren que el sentimiento de superioridad prevalece entre los usuarios de esta IA sexual. Normalizar comportamientos sexuales nocivos como la agresión sexual, el placer doloroso o la explotación infantil es una terrible noticia para la sociedad actual.
Sin embargo, perseguir a los individuos no es la mejor solución de abordar el problema. Deberíamos tratar el uso de robots sexuales como otros comportamientos potencialmente dañinos como el juego.
Al igual que ocurre con otros comportamientos desequilibrantes en los que el problema reside más en los distribuidores que en los consumidores, es hora de culpar a los proveedores de sexbots. Como nuestros lazos con la IA son cada vez más profundos, no hay mucho margen de tiempo.