IA y responsabilidad profesional: el reloj puede ser automático, pero la firma sigue siendo nuestra

⏱ Tiempo de lectura: 6 minutos

En la alta relojería contemporánea, casi ningún reloj “de lujo” se fabrica como hace cien años. Hay tornos de control numérico, software de diseño, robots que pulen, laboratorios que testean. Sin embargo, cuando una pieza falla, el cliente no discute con la máquina que fresó el engranaje, ni con el programa que calculó el calibre: reclama ante la marca que figura en la esfera.

Con la abogacía en tiempos de inteligencia artificial ocurre algo muy parecido. Podemos automatizar procesos, delegar tareas mecánicas en modelos de lenguaje o sistemas de gestión, pero la firma al pie del escrito sigue siendo humana. Y la firma arrastra una consecuencia innegociable: la responsabilidad profesional.


1. El reloj que nadie quiere firmar

La escena empieza a repetirse con demasiada frecuencia: estudios que incorporan herramientas de IA para redactar borradores, sistematizar jurisprudencia, estimar riesgos procesales, proyectar escenarios. El resultado es eficiente, prolijo, rápido. Hasta que algo falla.

Un plazo mal calculado, una cita normativa errónea, una interpretación sesgada que el abogado no advirtió.
El cliente sufre un perjuicio y, con razón, pregunta: “¿Quién responde por esto?”.

En ese momento aparece el laberinto:

  • el proveedor del software tiene cláusulas de exención de responsabilidad;
  • la plataforma opera desde otra jurisdicción;
  • la IA es, jurídicamente, una herramienta sin personalidad ni patrimonio.

Queda, entonces, un único fusible disponible: el abogado que firmó.
Ese desajuste entre una práctica crecientemente automatizada y un régimen de responsabilidad pensado para el profesional “artesanal” es, a mi juicio, uno de los grandes temas que la abogacía todavía no se anima a discutir con suficiente profundidad.


2. Del banco de trabajo al taller automatizado

Durante décadas, el imaginario del abogado se pareció al banco de trabajo del viejo relojero:

  • un escritorio,
  • unos pocos instrumentos,
  • una biblioteca,
  • y muchas horas de trabajo paciente, casi manual.

Hoy la escena es otra. En muchos estudios conviven:

  • modelos de IA que sugieren redacciones y estructuras argumentales,
  • bases de datos que sintetizan jurisprudencia y doctrina,
  • sistemas que automatizan contratos y notificaciones,
  • plataformas que trabajan con algoritmos de predicción o clasificación de casos.

El abogado ya no trabaja solo sobre la “pieza” jurídica; trabaja dentro de un sistema. Ese sistema puede ser más o menos sofisticado, más o menos consciente, pero existe. El problema es que nuestras normas éticas, pólizas de seguro, criterios jurisprudenciales y contratos de prestación de servicios siguen pensando en el relojero de antaño, no en el taller moderno.

Tal vez te interese:  Firma digital y firma electrónica en Argentina: guía práctica para contratos que funcionan

3. Quién diseña el calibre y quién firma la esfera

La relojería de alta gama ofrece una clave útil:
la máquina puede producir con precisión, pero no diseña la esencia del reloj.

En un buen reloj, hay tareas que pueden ser automatizadas sin culpa:

  • fresar engranajes,
  • pulir componentes,
  • estandarizar tornillos.

Sin embargo, hay tres decisiones que siguen siendo inseparablemente humanas:

  1. El diseño del calibre: qué se quiere que haga el reloj, cómo se distribuyen las fuerzas, qué compromisos se aceptan entre precisión, reserva de marcha y robustez.
  2. La elección de materiales: qué soporta el uso, qué se adecua al propósito, qué responde mejor al entorno real donde la pieza va a funcionar.
  3. La validación final y la firma: quien regula el mecanismo, controla el resultado y estampa su nombre asume que, desde ese momento, la pieza “dice la hora” bajo su responsabilidad.

Trasladado a la abogacía y a la IA:

  • La herramienta puede sugerir textos, ordenar información y hasta proponer estrategias.
  • Pero la decisión sobre la línea jurídica, la selección de argumentos, el ajuste al caso concreto y la firma siguen siendo del abogado.

Eso no es un detalle romántico sobre la “nobleza de la profesión”, sino una afirmación estrictamente jurídica: quien firma se apropia del contenido, con todas sus consecuencias.


4. El espejismo de culpar al algoritmo

Frente a los errores derivados del uso de IA, se empieza a escuchar una coartada peligrosa:

“Eso lo sugirió la herramienta”,
“el sistema completó así el texto”,
“el modelo interpretó los datos de ese modo”.

Desde la perspectiva de la responsabilidad profesional, ese argumento tiene un recorrido muy breve.
Si el producto final se presenta al cliente o al tribunal bajo el sello del abogado, la herramienta se integra al ámbito de organización del profesional. Es, en términos simples, una extensión de su modo de trabajar.

No se trata de desconocer los límites técnicos de la IA, ni su opacidad en muchos casos. Se trata de recordar algo más elemental:

  • la obligación del abogado sigue siendo de medios,
  • esos medios deben ser diligentes y adecuados al estado del arte,
  • y la elección y el control de las herramientas forman parte de esa diligencia.

Cuando el abogado renuncia de hecho a verificar lo que la IA produce, no está “confiando en la tecnología”: está abandonando el rol de maestro relojero para convertirse en mero operador de máquina. Y el ordenamiento jurídico, con razón, no lo exime por ello.

Tal vez te interese:  Firma digital vs firma electrónica: ¿cuál te conviene para tus contratos legales?

5. Seguros, contratos y protocolos: los eslabones ausentes

Si aceptamos que el abogado de hoy se parece más a un relojero rodeado de herramientas de alta precisión que a un artesano solitario, el siguiente paso es obvio: hay que revisar los eslabones que faltan en la cadena de responsabilidad.

  1. Seguros de responsabilidad profesional
    Muchas pólizas continúan redactadas como si el riesgo proviniera casi exclusivamente de errores humanos directos: un plazo vencido, una presentación omitida, una cita legislativa desactualizada.
    En cambio, los riesgos asociados a:
    • dependencia de sistemas automatizados,
    • errores de software,
    • filtración de datos en plataformas externas,
      están pobremente contemplados o directamente excluidos.
      No es razonable que el taller se llene de máquinas modernas mientras la cobertura del relojero permanezca anclada en el siglo pasado.
  2. Contratos con los clientes
    Con frecuencia, los acuerdos de honorarios no describen ni acotan el uso de herramientas tecnológicas.
    Sería más transparente indicar, con lenguaje claro:
    • que se utilizan sistemas de apoyo automatizado,
    • que la labor del abogado consiste en dirigir, supervisar y validar ese proceso,
    • que la obligación asumida es de medios razonables y no de resultado garantizado,
    • y que existen límites materiales y temporales en la información utilizada por las herramientas.
  3. Contratos con proveedores de tecnología
    Aquí la asimetría es evidente:
    • los proveedores de software e IA suelen blindarse mediante cláusulas amplias de exención de responsabilidad,
    • los abogados aceptan términos de uso que rara vez negocian,
    • y el resultado práctico es que, cuando algo falla, el único con nombre, matrícula y patrimonio a la mano es el profesional.
    Si la IA y el software se convierten en piezas indispensables del taller jurídico, es lógico reclamar un reparto de riesgos más razonable.
  4. Protocolos internos de uso de IA
    No hace falta un manual infinito, pero sí criterios mínimos, por ejemplo:
    • nunca presentar un texto generado por IA sin revisión integral;
    • verificar de manera independiente citas normativas y jurisprudenciales;
    • no delegar en la herramienta evaluaciones fácticas que requieren contacto directo con el expediente o el cliente;
    • documentar decisiones estratégicas que se apoyan en análisis automatizados.

Estos eslabones no eliminan el riesgo, pero lo ordenan y lo vuelven más compatible con la dignidad de la profesión y con la confianza del cliente.

Tal vez te interese:  ¿Qué hacer si un inquilino deja de pagar el alquiler? Guía legal clara para propietarios argentinos

6. Lo que no se puede automatizar: criterio, prudencia y responsabilidad

En un reloj de alta gama, la diferencia entre una pieza de colección y un simple producto industrial no está solo en el brillo de la caja o en la complejidad del mecanismo, sino en el criterio que orientó su diseño.

Algo similar ocurre con la abogacía:

  • La IA puede ayudar a escribir mejor, más rápido y con mayor volumen.
  • Puede proponer líneas argumentales, alertar sobre contradicciones, sugerir comparaciones.
  • Puede ordenar información de una manera que antes hubiera llevado días o semanas.

Pero hay tres cosas que, a día de hoy, siguen siendo estrictamente nuestras:

  1. El criterio jurídico
    Elegir qué norma es verdaderamente aplicable, qué línea jurisprudencial resulta defendible, qué riesgo vale la pena asumir no es un cálculo estadístico, es un juicio prudencial.
  2. La prudencia profesional
    Decidir cuándo conviene avanzar, transar, apelar o retroceder implica ponderar consecuencias que exceden cualquier patrón de texto: personas, contextos, trayectorias, límites económicos.
  3. La responsabilidad frente al cliente y frente al sistema
    Responder por lo actuado, dar explicaciones, admitir errores, reparar daños cuando corresponda, no se puede trasladar a ninguna máquina. Es un acto ético y jurídico que define el núcleo de la profesión.

La automatización puede rodear ese núcleo, nunca sustituirlo.
El desafío no es “humanizar la IA”, sino recordar qué parte del trabajo jurídico debe seguir siendo irrenunciablemente humana.


7. Conclusión: ejercer como maestro relojero, no como operador de máquina

La abogacía está entrando, le guste o no, en una etapa de relojería de precisión asistida por tecnología. Podemos resistir esa realidad, ignorarla o asumirla.

Asumirla implica varias cosas a la vez:

  • adoptar herramientas de IA y automatización cuando mejoran la calidad del servicio;
  • reconocer que, al hacerlo, no desaparece sino que se transforma el campo de nuestra responsabilidad;
  • exigir que seguros, colegios, marcos éticos y contratos acompañen esta transformación;
  • y, sobre todo, no renunciar a nuestro rol de diseñadores del “calibre jurídico” y garantes de su funcionamiento.

En definitiva, un estudio jurídico moderno puede estar lleno de pantallas, algoritmos y procesos automatizados. Pero si en la esfera del “reloj” profesional aparece nuestro nombre, esa pieza sigue hablando de nosotros.

La IA puede ayudarnos a medir mejor el tiempo, pero no puede reemplazar la decisión de qué hacemos con él ni la obligación de responder cuando, por nuestra culpa, se detiene.