LLMs en evangelismo: Balance entre el riesgo y oportunidad


Abstract digital interface with blue and orange elements, featuring code snippets and security symbols on a dark background.
Qué encontrarás en esta página:

En los últimos años, las herramientas de IA –como ChatGPT– han generado una atención significativa, incluso dentro del ámbito del ministerio, incluyendo campos como el evangelismo digital.  

A medida que los ministerios buscan expandir su alcance de manera innovadora, muchos están considerando si los Grandes Modelos de Lenguaje (LLM, por sus siglas en inglés), como ChatGPT, podrían mejorar sus esfuerzos evangelísticos.

En CV, estamos explorando activamente el potencial de los LLM como una herramienta creativa y conversacional. Sin embargo, también somos muy conscientes de los riesgos involucrados en el despliegue de estas herramientas en un contexto ministerial. 

Equilibrando la emoción sobre las oportunidades que presentan estas herramientas con la prudencia necesaria para garantizar su uso responsable, creemos que es crucial sopesar cuidadosamente los beneficios potenciales frente a los riesgos inherentes.

Si bien reconocemos que aún no es posible mitigar completamente todos estos riesgos, estamos comprometidos a explorar estas oportunidades de manera responsable y proactiva.

A continuación, se presentan algunos de los riesgos que hemos encontrado en nuestro propio trabajo en evangelismo, y algunos de los pasos iniciales que hemos tomado para mitigar algunos de estos riesgos.

“El contenido generado por LLM no necesariamente representa la verdad o la realidad. Se basa mucho en nuestra capacidad para discernir y tomar decisiones por nosotros mismos basados en el conocimiento que tenemos.”

– Stuart Cranney 

Riesgo 1: Alucinación e imprecisión

Uno de los principales atractivos de usar un Modelo de Lenguaje Grande (LLM) es su capacidad de generar rápidamente contenido impresionante para una variedad de propósitos. Sin embargo, existe un riesgo significativo: ¿cómo asegurarse de que el contenido producido sea preciso y se alinee con la verdad teológica?

De vez en cuando, los LLM son conocidos por alucinar. La alucinación ocurre cuando un modelo genera contenido que es fácticamente incorrecto, engañoso o completamente fabricado.

Como consecuencia, el potencial de difundir información errónea o incluso ideas que pueden considerarse no bíblicas es una preocupación para cualquiera que use LLM, pero las apuestas son particularmente altas para los ministerios dedicados a compartir fielmente el evangelio. La intervención humana es, a menudo, necesaria para establecer con certeza si el contenido generado por un LLM es adecuado para su uso.

Riesgo 2: Sesgo

Los LLM se entrenan con grandes cantidades de datos, que pueden incluir contenido sesgado o prejuiciado. En consecuencia, estos modelos pueden producir inadvertidamente resultados que reflejan sesgos sociales o lenguaje inapropiado. En un contexto ministerial o pastoral, esto podría resultar en declaraciones problemáticas o comentarios insensibles que podrían enajenar u ofender.

“Todo el conocimiento humano está codificado con sesgos humanos.”

– Stuart Cranney

Riesgo 3: Privacidad y confidencialidad

Los LLM como ChatGPT pueden participar en conversaciones que parecen notablemente humanas, lo que podría llevar a las personas a compartir información personal o sensible. Sin embargo, como sistemas de IA, carecen de la capacidad de administrar de manera segura los datos confidenciales, lo que crea riesgos significativos de privacidad. Si tu compromiso con la administración se extiende al deseo de proteger la información personal o sensible de las personas a las que ministras, es posible que debas considerar plataformas y soluciones que te permitan preservar la privacidad de los datos.

Riesgo 4: Falta de compromiso humano

Aunque los LLM como ChatGPT pueden entregar respuestas rápidas y eficientes en el contexto de conversaciones similares a chats, la dependencia excesiva de la IA para este tipo de comunicación corre el riesgo de erosionar el toque humano que es, a menudo, vital en el trabajo ministerial, especialmente en el evangelismo. El cuidado pastoral, el asesoramiento y la guía espiritual son inherentemente personales y relacionales, y requieren la empatía y el discernimiento que solo un humano puede proporcionar. Además, creemos que nosotros, como iglesia, hemos sido llamados a desempeñar un papel que no puede, y no debería, ser siempre replicado por la interacción de una máquina. La IA apoya el trabajo al que hemos sido llamados, pero no debe reemplazarlo.

Riesgo 5: Interacciones de alto riesgo

En el contexto de una conversación de chat, puedes incluir automatizaciones que reconozcan la intención de un mensaje de una persona que busca, en línea, respuestas en la fe; pero el compromiso humano y el cuidado pastoral mencionados anteriormente son aún más importantes cuando hay un problema grave con respecto a la protección de las personas vulnerables del daño. Los LLM pueden ser entrenados para proporcionar un cierto grado de retroalimentación y apoyo a alguien en condición de riesgo para sí mismo o para alguien más, pero nunca pueden reemplazar a un humano real en una situación de alto riesgo.
 

Smiling man with a beard wearing a gray shirt, sitting against a dark background with soft lighting.

Tratando con la complejidad

En esta breve conversación, Stuart Cranney, Director de Innovación de CV, arroja luz sobre algunas de las complejidades que deben considerarse al pensar en estos riesgos potenciales. (Solo disponible en inglés.)

¿Por qué asumir el riesgo?

 

Si bien los riesgos asociados con los LLM pueden ser considerables, descartarlos por completo significaría perderse valiosas oportunidades para llegar a más personas.

Cuando se usan en un chatBot, los LLM pueden ofrecer un compromiso personalizado las 24 horas del día, rompiendo las barreras geográficas y temporales. Pueden encargarse de tareas rutinarias, liberando a los equipos para que se enfoquen en el lado más relacional del ministerio. También podrían ayudar en los esfuerzos evangelísticos al crear contenido y traducir mensajes.

Por estas razones y otras, CV se ha esforzado por explorar medidas para mitigar algunos de los riesgos mencionados anteriormente. Aquí están algunos de los pasos prácticos que hemos tomado.

Revisión Manual

Algunos de los riesgos relacionados con la falta de precisión, la alucinación y el sesgo pueden mitigarse al comprometerse con una revisión manual del contenido generado por IA antes de que se publique o comparta. Esto es particularmente relevante en los casos en que los LLM se utilizan para la generación de contenido creativo (en lugar de implementaciones programáticas conversacionales a gran escala).

La revisión manual también puede ser necesaria en casos donde los temas tratados son sensibles desde el punto de vista teológico o social.

 

Comité de ética de la IA

En el contexto de su propio trabajo en IA y otras áreas de tecnología emergente en los últimos años, CV reconoció la necesidad de convocar un grupo dedicado a considerar cuidadosamente las implicaciones éticas de estas tecnologías. Esto llevó al establecimiento de nuestro Comité Asesor de Ética Tecnológica, un foro donde podemos navegar cuidadosamente los desafíos y oportunidades que surgen al utilizar una variedad de tecnologías en nuestro ministerio.

Este comité proporciona un espacio dedicado para considerar cuidadosamente algunas de las preguntas más importantes sobre temas como la IA, y brinda información y asesoramiento a nuestro liderazgo senior para navegar estos asuntos, ayudando a garantizar que nuestro enfoque se alinee con nuestros valores y misión.

Si bien estos tipos de grupos asesores pueden estar asociados con organizaciones más grandes, no hay nada que impida que incluso los ministerios o iglesias más pequeños establezcan grupos asesores, formales o informales, para ayudar a pensar en estos asuntos. Esto permite tomar decisiones informadas y proactivas, fomentando en última instancia un uso responsable e impactante de tecnologías como la IA en su ministerio.

 

¿Interesado en establecer un grupo asesor?

Al igual que otros, hemos encontrado útil convocar un pequeño grupo que consta de individuos independientes y líderes senior, con estas amplias áreas de especialización o interés:

  • Un individuo con especialidad en un área de tecnología. La tecnología específica podría reflejar un área de enfoque (o enfoque previsto) dentro de su iglesia o ministerio.
  • Un individuo que esté profundamente familiarizado e invertido en la misión y los valores de su organización, preferiblemente con un rol de liderazgo senior.
  • Un individuo con especialidad en ministerio pastoral, teología y/o ética.

Una combinación de asesores independientes e internos que cubran aproximadamente estas áreas de interés es un punto de partida útil y, al menos, proporciona la base para conversaciones que podrían revelar cómo avanzar.

 

Herramientas de gobernanza de terceros

Están surgiendo una serie de herramientas destinadas a mitigar algunos de los riesgos inherentes asociados con estas tecnologías.

Si bien ninguna representa actualmente una solución única que elimine todos los riesgos, han surgido varias soluciones interesantes que se ocupan de una amplia gama de desafíos.

CV ha estado experimentando con una herramienta específica que cubre, entre otras cosas:

  • Verificaciones de seguridad.
    (Para vulnerabilidades como las inyecciones de prompts).
     
  • Filtros de privacidad.
    Para enmascarar o reemplazar datos sensibles en las entradas del modelo.
     
  • Validaciones de salida.
     Esto evita alucinaciones (imprecisión) y otras salidas tóxicas de los LLM.
     
  • Protección de datos conforme a las normas.
     Esta herramienta ayuda a gestionar el cumplimiento con diversos estándares de gobernanza de datos.

 

Nuestro equipo de asociaciones estaría encantado de conectarte con el proveedor mencionado (no estamos involucrados en un acuerdo de afiliación), así que no dudes en contactarnos.

Para leer más acerca de este tema:

Artículo destacado

Mapeando el viaje de quienes buscan: una inmersión técnica.