Contáctenos

No se trata de lo que la IA puede hacer por nosotros, sino de lo que nosotros podemos hacer por la IA

Líderes del pensamiento

No se trata de lo que la IA puede hacer por nosotros, sino de lo que nosotros podemos hacer por la IA

mm

La mayoría ve la inteligencia artificial (IA) desde una perspectiva unidireccional. Esta tecnología solo existe para servir a los humanos y alcanzar nuevos niveles de eficiencia, precisión y productividad. Pero ¿qué pasa si nos perdemos la mitad de la ecuación? ¿Y si, al hacerlo, solo estamos amplificando las deficiencias de la tecnología?

La IA está en sus inicios y aún enfrenta importantes limitaciones en cuanto a razonamiento, calidad de datos y comprensión de conceptos como confianza, valor e incentivos. La brecha entre las capacidades actuales y la verdadera "inteligencia" es considerable. ¿La buena noticia? Podemos cambiar esto convirtiéndonos en colaboradores activos de la IA en lugar de consumidores pasivos.

Los humanos tienen la clave de la evolución inteligente al proporcionar mejores marcos de razonamiento, proporcionar datos de calidad y reducir la brecha de confianza. Como resultado, el ser humano y la máquina pueden trabajar en conjunto para lograr un beneficio mutuo: una mejor colaboración genera mejores datos y mejores resultados.

Consideremos cómo podría ser una relación más simbiótica y cómo, como socios, una colaboración significativa puede beneficiar a ambos lados de la ecuación de la IA.

La relación necesaria entre el hombre y la máquina

Sin duda, la IA es excelente para analizar grandes conjuntos de datos y automatizar tareas complejas. Sin embargo, la tecnología sigue teniendo limitaciones fundamentales para pensar como nosotros. En primer lugar, estos modelos y plataformas tienen dificultades para razonar más allá de sus datos de entrenamiento. El reconocimiento de patrones y la predicción estadística no suponen ningún problema, pero el juicio contextual y los marcos lógicos que damos por sentados son más difíciles de replicar. Esta brecha de razonamiento implica que la IA a menudo flaquea ante escenarios con matices o juicios éticos.

En segundo lugar, está la calidad de los datos, que implica que "entran basura, salen basura". Los modelos actuales se entrenan con grandes cantidades de información, con y sin consentimiento. Se utiliza información no verificada o sesgada, independientemente de la atribución o autorización adecuadas, lo que resulta en... IA no verificada o sesgada. Los "dieta de datosPor lo tanto, la precisión de los modelos es, en el mejor de los casos, cuestionable y, en el peor, dispersa. Resulta útil considerar este impacto en términos nutricionales. Si los humanos solo comemos comida chatarra, somos lentos y perezosos. Si los agentes solo consumen material protegido por derechos de autor y de segunda mano, su rendimiento se ve igualmente afectado por resultados inexactos, poco fiables y generales en lugar de específicos. Esto todavía está muy lejos la toma de decisiones autónoma y proactiva prometida en la próxima ola de agentes.

Es fundamental que la IA siga ignorando con quién y con qué interactúa. No distingue entre usuarios alineados y desalineados, tiene dificultades para verificar las relaciones y no comprende conceptos como la confianza, el intercambio de valor y los incentivos para las partes interesadas, elementos fundamentales que rigen las interacciones humanas.

Problemas de IA con soluciones humanas

Necesitamos pensar en plataformas, herramientas y agentes de IA menos como sirvientes Y más como asistentes que podemos ayudar a entrenar. Para empezar, analicemos el razonamiento. Podemos introducir nuevos marcos lógicos, directrices éticas y pensamiento estratégico que los sistemas de IA no pueden desarrollar por sí solos. Mediante una guía reflexiva y una supervisión minuciosa, podemos complementar las fortalezas estadísticas de la IA con la sabiduría humana, enseñándoles a reconocer patrones y comprender los contextos que les dan significado.

De la misma manera, en lugar de permitir que la IA se entrene con cualquier información que pueda extraer de Internet, los humanos pueden seleccionar conjuntos de datos de mayor calidad que estén verificados, sean diversos y tengan fuentes éticas.

Esto significa desarrollar mejores sistemas de atribución donde los creadores de contenido sean reconocidos y compensados ​​por sus contribuciones a la capacitación.

Los marcos emergentes lo hacen posible. Uniendo identidades en línea bajo una misma bandera Al decidir si se sienten cómodos compartiendo y qué compartir, los usuarios pueden equipar los modelos con información de terceros que respeta la privacidad, el consentimiento y las regulaciones. Mejor aún, al rastrear esta información en la cadena de bloques, los usuarios y los creadores de modelos pueden ver de dónde proviene la información y compensar adecuadamente a los creadores por proporcionarla.aceite nuevo.”Así es como reconocemos a los usuarios por sus datos y los incorporamos a la revolución de la información.

Finalmente, superar la brecha de confianza implica dotar a los modelos de valores y actitudes humanas. Esto implica diseñar mecanismos que reconozcan a las partes interesadas, verifiquen las relaciones y diferencien entre usuarios alineados y desalineados. Como resultado, ayudamos a la IA a comprender su contexto operativo: quién se beneficia de sus acciones, qué contribuye a su desarrollo y cómo fluye el valor a través de los sistemas en los que participa.

Por ejemplo, los agentes respaldados por la infraestructura blockchain son muy buenos en esto. Pueden reconocer y priorizar a los usuarios con una sólida adhesión al ecosistema mediante reputación, influencia social o posesión de tokens. Esto permite a la IA alinear los incentivos, dando mayor peso a las partes interesadas con participación activa, creando sistemas de gobernanza donde los seguidores verificados participan en la toma de decisiones según su nivel de compromiso. Como resultado, la IA comprende mejor su ecosistema y puede tomar decisiones basadas en relaciones genuinas con las partes interesadas.

No perdamos de vista el elemento humano en la IA

Se ha hablado mucho sobre el auge de esta tecnología y cómo amenaza con transformar industrias y eliminar empleos. Sin embargo, la incorporación de medidas de seguridad puede garantizar que la IA complemente la experiencia humana, en lugar de anularla. Por ejemplo, las implementaciones de IA más exitosas no reemplazan a los humanos, sino que amplían lo que podemos lograr juntos. Cuando la IA gestiona el análisis rutinario y los humanos proporcionan dirección creativa y supervisión ética, ambas partes aportan sus fortalezas únicas.

Si se implementa correctamente, la IA promete mejorar la calidad y la eficiencia de innumerables procesos humanos. Pero si se implementa incorrectamente, se ve limitada por fuentes de datos cuestionables y solo imita la inteligencia en lugar de mostrarla. Depende de nosotros, la parte humana de la ecuación, hacer que estos modelos sean más inteligentes y garantizar que nuestros valores, criterio y ética sigan siendo su base.

La confianza es innegociable para que esta tecnología se generalice. Cuando los usuarios pueden verificar el destino de sus datos, ver cómo se utilizan y participar en el valor que generan, se convierten en socios voluntarios en lugar de sujetos reticentes. De igual manera, cuando los sistemas de IA pueden aprovechar la coordinación entre las partes interesadas y la transparencia de los flujos de datos, se vuelven más confiables. A su vez, es más probable que accedan a nuestros espacios privados y profesionales más importantes, creando un ciclo de mayor acceso a los datos y mejores resultados.

Así pues, al entrar en esta nueva fase de la IA, centrémonos en conectar al ser humano y a la máquina mediante relaciones verificables, fuentes de datos de calidad y sistemas precisos. Deberíamos preguntarnos no qué puede hacer la IA por nosotros, sino qué podemos hacer nosotros por la IA.

Yukai Tu es el director de tecnología de CARVYukai es un experto en computación confidencial y blockchain y tiene una maestría en Ciencias de la Computación de la UCLA. En CARV, Yukai está ayudando a construir Cadena CARV SVM y Marco de datos de CARV, una infraestructura de agentes que extiende las capacidades de SVM a Ethereum y proporciona a los agentes de IA datos de alta calidad, tanto dentro como fuera de la cadena. También trabajó como ingeniero de software en Google y Coinbase, colaborador del SDK de Cosmos y líder de ingeniería de blockchain en LINO.