Home » Por qué el fundador de ShapeShift, Erik Voorhees, apuesta por una startup de IA centrada en la privacidad

Por qué el fundador de ShapeShift, Erik Voorhees, apuesta por una startup de IA centrada en la privacidad

by Patricia

El fundador de la bolsa de criptomonedas ShapeShift, Erik Voorhees, anunció el viernes el lanzamiento público de su última empresa, Venice AI, un chatbot de inteligencia artificial generativa centrado en la privacidad.

La privacidad es una preocupación fundamental para el espacio de las criptomonedas y entre los usuarios de inteligencia artificial, un factor crucial en la creación de Venice AI, dijo.

«Vi hacia dónde se dirige la IA, que es a ser capturada por grandes empresas tecnológicas que están en la cama con el gobierno», dijo Voorhees a TCN. «Y eso me preocupó mucho, porque me di cuenta de lo poderosa que es la IA y de las consecuencias que puede tener: un reino increíble de nuevas tecnologías».

Voorhees lamentó que las grandes empresas tecnológicas estén a menudo bajo el control del gobierno y actúen como guardianes de la IA, algo que podría llevarnos a un mundo distópico.

«El antídoto es la descentralización de código abierto», dijo Voorhees. «No dar el poder del monopolio sobre estas cosas a nadie».

Reconociendo el importante trabajo realizado por OpenAI, Anthropic y Google para impulsar el campo de la IA generativa, Voorhees dijo que los consumidores deberían seguir teniendo la opción de usar IA de código abierto.

«No quiero que esa sea la única opción; no quiero que la única opción sea el código cerrado, propietario, centralizado, censurado, con permisos», dijo. «Por eso deben existir alternativas».

Voorhees lanzó la bolsa de criptomonedas ShapeShift en 2014. En julio de 2021, el intercambio dijo que la transición a un intercambio descentralizado de código abierto (DEX), con el control de la bolsa de transferencia de Voorhees a la ShapeShift DAO.

ShapeShift anunció en marzo que cerraría tras verse envuelta en una batalla con la Comisión de Bolsa y Valores de Estados Unidos. La bolsa acordó pagar una multa de 275.000 dólares y acatar una orden de cese y desistimiento para resolver las acusaciones de que la bolsa permitía a los usuarios comerciar con activos digitales sin registrarse como corredor o bolsa ante la agencia.

En los tres años transcurridos, Voorhees dijo que había centrado su atención en la creación de un modelo de IA descentralizado y sin permisos.

«[La GPU] ve el texto sin formato de la solicitud específica, pero no ve todas tus otras conversaciones, y Venecia no ve tus conversaciones, y nada de esto está vinculado a tu identidad», dijo.

Voorhees reconoció que el sistema no proporciona una privacidad perfecta -no es completamente anónimo y de conocimiento cero-, pero opinó que el modelo de Venice AI es «sustancialmente mejor» que el statu quo, en el que las conversaciones son enviadas y almacenadas por una empresa centralizada.

«Lo ven todo, y lo tienen todo para siempre, y lo vinculan a tu identidad», dijo Voorhees.

Desarrolladores de IA como Microsoft, Google, Anthropic, OpenAI y Meta han trabajado denodadamente para mejorar la percepción pública y política del sector de la IA generativa. Varias de las principales empresas de IA se han adherido a iniciativas y compromisos gubernamentales y sin ánimo de lucro para desarrollar una «IA responsable».

Estos servicios permiten aparentemente a los usuarios borrar su historial de chat, pero Voorhees afirma que es ingenuo suponer que los datos desaparecen para siempre.

«Una vez que una empresa tiene tu información, nunca puedes confiar en que se haya ido, nunca», dijo, señalando que algunas regulaciones gubernamentales requieren que las empresas conserven la información del cliente. «La gente debe asumir que todo lo que escribe a OpenAI va a parar a ellos y que lo tienen para siempre».

«La única forma de resolver eso es utilizar un servicio en el que la información no vaya a un repositorio central en absoluto en primer lugar», añadió Voorhees. «Eso es lo que intentamos construir».

En la plataforma de Venice AI, el historial de chat se almacena localmente en el navegador del usuario y puede eliminarse, tanto si el usuario crea una cuenta como si no. Los clientes pueden crear una cuenta con un ID de Apple, Gmail, correo electrónico, Discord o conectando una cartera MetaMask.

Sin embargo, crear una cuenta en Venice AI tiene sus ventajas, como un mayor límite de mensajes, la posibilidad de modificar los avisos y la posibilidad de ganar puntos, aunque por el momento éstos no tienen ninguna función aparte de facilitar el seguimiento del uso. Los usuarios que busquen funciones más completas también pueden contratar una cuenta Venice Pro, cuyo precio actual es de 49 dólares anuales.

Venice Pro ofrece mensajes de texto ilimitados, elimina las marcas de agua de las imágenes generadas y de los documentos subidos, y permite a los usuarios «desactivar el modo seguro para generar imágenes sin trabas».

A pesar de la integración de la cuenta MetaMask, Voorhees señaló que los usuarios aún no pueden suscribirse a Venice Pro con monedas digitales, pero dijo que «pronto». Mientras tanto, debido a que está construido sobre la Red Morpheus, la compañía está recompensando a los poseedores del token Morpheus.

«Si tienes un token de Morpheus en tu monedero, obtienes una cuenta Pro gratuita de forma indefinida», explica. «Ni siquiera tienes que pagar, sólo tienes que tener un token de Morpheus y automáticamente tendrás la cuenta Pro mientras ese token esté en tu cartera. «

Como hacen con cualquier herramienta, los ciberdelincuentes desarrollan constantemente formas de sortear las barreras integradas en las herramientas de IA para aprovecharlas para cometer delitos, ya sea mediante el uso de lenguajes oscuros o la creación de clones ilícitos de modelos de IA populares. Sin embargo, según Voorhees, interactuar con una calculadora de lenguaje nunca es ilegal.

Si entras en Google y buscas «¿cómo hago una bomba?», puedes encontrar esa información; no es ilegal encontrar esa información, y no creo que sea poco ético encontrar esa información», afirma. Lo que es ilegal y poco ético es construir una bomba para hacer daño a la gente, pero eso no tiene nada que ver con Google».

«Se trata de una acción independiente del usuario, por lo que Venecia en particular, o la IA en general, creo que se aplica un principio similar».

Los modelos de IA generativa como ChatGPT de OpenAI también han sido objeto de un creciente escrutinio sobre cómo se entrenan los modelos de IA, dónde se almacenan los datos y los problemas de privacidad. Venice AI recopila información limitada, como el uso que se hace del producto -por ejemplo, la creación de nuevos chats-, pero su sitio web dice que la plataforma no puede ver ni almacenar «ningún dato sobre el texto o las imágenes compartidas entre el usuario y los modelos de IA».

Para generar texto, Venice utiliza el modelo de lenguaje de gran tamaño Llama 3, desarrollado por Meta, empresa matriz de Facebook. Los clientes también pueden cambiar entre dos versiones de Llama 3: Nous H2P y Dolphin 2.9.

En un mensaje en Twitter tras el lanzamiento de Venice AI, Voorhees elogió el trabajo realizado por Mark Zuckerberg y Meta en el campo de la inteligencia artificial generativa, incluida la creación del potente LLM de código abierto.

«Meta merece un gran reconocimiento por haber invertido cientos de millones de dólares en el entrenamiento de un modelo de vanguardia y haberlo puesto a disposición del mundo de forma gratuita», afirmó.

Venice también permite a los usuarios generar imágenes utilizando los modelos de código abierto Playground v2.5, Stable Diffusion XL 1.0 y Segmind Stable Diffusion 1B.

Cuando se le preguntó si Venice AI utilizaría servicios de OpenAI o Anthropic, la respuesta de Voorhees fue un rotundo no.

«Nunca proporcionaremos Claude LLM y nunca proporcionaremos el servicio de OpenAI», dijo. «No somos un envoltorio para servicios centralizados, somos una forma de acceder explícita y únicamente a modelos de código abierto».

Con Venice AI construida sobre la red descentralizada Morpheus que impulsa a los agentes inteligentes de código abierto, Voorhees reconoció que existen preocupaciones sobre el rendimiento de Venice AI. Es algo en lo que se están centrando, explicó.

«Si queremos ofrecer a la gente una IA privada y sin censura, tiene que tener un rendimiento similar al de las empresas centralizadas», afirmó Voorhees. «Porque si no, la gente preferirá la comodidad de la empresa central».

Related Posts

Leave a Comment