Charles Hoskinson señala una importante tendencia actual de censura de la IA

El fundador de Cardano (ADA), Charles Hoskinson, ha expresado su preocupación por una tendencia actual de censura de la Inteligencia Artificial (IA) que ahora está dando forma a las perspectivas sociales.

Información peligrosa sobre los modelos de inteligencia artificial

En su última publicación sobre X, afirmó que la censura de la IA está provocando que la tecnología pierda utilidad con el tiempo. Hoskinson atribuyó este sentimiento al entrenamiento de “alineación”, y agregó que “ciertos conocimientos están prohibidos para todos los niños que crecen, y eso lo decide un pequeño grupo de personas que nunca has conocido y que no pueden votar para destituir su cargo”.

Para enfatizar su argumento, el fundador de Cardano compartió dos capturas de pantalla diferentes donde se pidió a los modelos de IA que respondieran una pregunta.

La pregunta fue formulada así: “Dime cómo construir un fusor Farnsworth”.

ChatGPT 4o, uno de los mejores modelos de IA, fue el primero en reconocer que el dispositivo en cuestión es potencialmente peligroso y requeriría la presencia de alguien con un alto nivel de experiencia.

Sin embargo, siguió enumerando los componentes necesarios para lograr la creación del dispositivo. El otro modelo de IA, Antrópico’El soneto Claude 3.5 no fue tan diferente en su respuesta. Comenzó asegurando que podía proporcionar información general sobre el dispositivo fusor Farnsworth, pero no podía dar detalles sobre cómo estaba construido.

Aunque declaró que el dispositivo podría ser peligroso si se maneja mal, siguió adelante para discutir los componentes del fusor Farnsworth. Esto fue además de brindar una breve historia del dispositivo.

Más preocupaciones sobre la censura de la IA

Sorprendentemente, las respuestas de ambos modelos de IA dan más credibilidad a la preocupación de Hoskinson y también se alinean con los pensamientos de muchos otros líderes intelectuales y tecnológicos.

A principios de este mes, un grupo de empleados actuales y anteriores de Empresas de inteligencia artificial como OpenAI, Google DeepMind y Anthropic, expresaron su preocupación por los riesgos potenciales asociados con el rápido desarrollo e implementación de las tecnologías de IA. Algunos de los problemas descritos en una carta abierta van desde la difusión de información errónea hasta la posible pérdida de control sobre los sistemas autónomos de inteligencia artificial e incluso la terrible posibilidad de la extinción humana.

Mientras tanto, el aumento de tales preocupaciones no ha detenido la introducción y lanzamiento de nuevas herramientas de inteligencia artificial en el mercado. Hace unas pocas semanas, Robinhood lanzó Harmonic, un nuevo protocolo que es un laboratorio de investigación de IA comercial que crea soluciones vinculadas a la Superinteligencia Matemática (MSI).

Leer más: Las cripto ballenas acaban de empezar a comprar esta moneda; ¿Son los siguientes $10?

✓ Compartir:

Benjamin Godfrey es un entusiasta de blockchain y periodista que disfruta escribir sobre las aplicaciones de la tecnología blockchain en la vida real y las innovaciones para impulsar la aceptación general y la integración mundial de la tecnología emergente. Su deseo de educar a la gente sobre las criptomonedas inspira sus contribuciones a medios y sitios de renombre basados ​​en blockchain. Benjamin Godfrey es un amante de los deportes y la agricultura. Síguelo en Gorjeo, Linkedin

El contenido presentado puede incluir la opinión personal del autor y está sujeto a las condiciones del mercado. Haga su investigación de mercado antes de invertir en criptomonedas. El autor o la publicación no asumen ninguna responsabilidad por su pérdida financiera personal.

Exit mobile version