Altman no es "Jobs", ¡Ilya lo es!

Fuente original: Data Ape

Fuente de la imagen: Generado por Unbounded AI

En la pelea palaciega de dos días de OpenAI, hay dos figuras clave, una es el ex CEO Altman y la otra es el científico jefe Ilya.

La trama de la sangre de perro, invertida e invertida

Sobre la base de lo que se sabe hasta ahora, la situación general es la siguiente:

Ronda 1:

Ilya fue el primero en ir a la huelga, lo que llevó a la junta a despedir a Altman, y luego los patrocinadores de OpenAI (especialmente Microsoft) y algunos empleados renunciaron.

Inversión de la trama:

Bajo la presión de muchos partidos, hay rumores constantes de que Altman podría volver al liderazgo de OpenAI y reorganizar la junta directiva, el más crítico de los cuales es que Ilya podría irse.

Marcha atrás y marcha atrás:

Sin embargo, justo ahora, esta trama ha sufrido un revés y se revierte nuevamente.

Según el medio extranjero The Information, Ilya Sutskever dijo a los empleados en San Francisco el domingo por la noche (hora de Pekín al mediodía de hoy) que Sam Altman no será reelegido como CEO. Además, la nueva CEO interina no es Mira Murati, sino Emmett Shear (cofundador de la plataforma de streaming de juegos de Amazon, Twitch).

E Ilya insistió en que él y otros tres miembros de la junta respaldaron la decisión de destituir a Altman, convencidos de que era la "única manera" de defender la misión de la compañía. Dijo que las acciones de Altman y las interacciones de la junta socavaron su capacidad para supervisar el desarrollo de IA de la compañía.

Todo comienza con la Carta de OpenAI

Ilya cree que destituyó a Altman en defensa de la misión de la empresa. Entonces, ¿cuál es la "misión" que defiende?

Hay que decir que ya sea Altman o Ilya, su conflicto esta vez no debería ser por el poder, y mucho menos por el dinero, sino más bien por "diferentes caminos". Tienen diferentes entendimientos de cómo OpenAI debería perseguir la AGI.

Para entender las contradicciones entre ellos, es necesario conocer a Ilya, Altman y OpenAI.

En primer lugar, debemos entender qué es OpenAI y cuál es el propósito de su creación.

Para averiguarlo, la Carta de OpenAI es el mejor material que se puede conseguir. Hay algunas palabras clave en esta carta que dejan claro por qué se fundó esta organización.

En la Carta de OpenAI, se establece claramente que "nuestra principal responsabilidad fiduciaria es con la humanidad". Anticipamos que será necesario movilizar recursos significativos para cumplir nuestra misión, pero siempre nos esforzaremos por tomar medidas para minimizar los conflictos de intereses entre los empleados y las partes interesadas que podrían dañar una amplia gama de intereses. "**

En otras palabras, desde el principio, OpenAI ha puesto los intereses de la humanidad en primer lugar, no los intereses de los inversores y empleados de OpenAI, e incluso pensaron desde el principio que en el futuro, los intereses de los empleados e inversores podrían entrar en conflicto con los intereses más amplios de la humanidad.

En la Carta de OpenAI, también hay una frase que ilustra plenamente que la seguridad de la AGI es mucho más importante que los propios intereses de OpenAI: "Nos preocupa que el desarrollo posterior de la AGI se convierta en una competencia competitiva, y no hay tiempo para tomar las precauciones de seguridad adecuadas". Por lo tanto, si un proyecto alineado con los valores y consciente de la seguridad se acerca a la construcción de AGI antes que nosotros, nos comprometemos a dejar de competir con el proyecto y comenzar a ayudar al proyecto. "**

Lo que les importa es el AGI seguro, y OpenAI es solo una herramienta para lograr este ideal, no el ideal en sí mismo. Por el bien de los ideales de AGI, no les importa hacer vestidos de novia para otros y detener el proyecto OpenAI.

¿Quién es el "Trabajo" de OpenAI?

Mucha gente piensa en Altman como el Steve Jobs de OpenAI, creyendo que todos fueron expulsados de la empresa que fundaron y luego protagonizaron el regreso del rey.

Sin embargo, creemos que si hay una analogía, entonces la versión de OpenAI de "Jobs" debería ser la de Ilya, no la de Altman. En cierto modo, Altman se parece más a John Scully (un ex vicepresidente de Best Cola, que fue reclutado por Apple por la frase de Steve Jobs "¿Quieres vender agua azucarada por el resto de tu vida, o quieres cambiar el mundo juntos?", y más tarde llevó a la junta directiva a echar a Jobs).

¿Por qué?

Tenemos que echar un vistazo más de cerca a qué tipo de personas son Ilya y Altman y cuál es su papel en OpenAI.

En general, Ilya, como científico jefe de OpenAI, lidera la hoja de ruta técnica de OpenAI.

Musk reveló una vez en un programa de entrevistas que la incorporación de Ilya es un punto de inflexión importante en el proceso de desarrollo de OpenAI. Hay que decir que OpenAI no encontró el camino del gran modelo actual al principio, y la incorporación de Ilya es crucial para el éxito de OpenAI en la actualidad.

A juzgar por las varias entrevistas en las que el propio Ilya ha participado, también es obvio que tiene un fuerte "gusto técnico masculino", y presta atención a la lógica técnica subyacente, y siempre ha considerado la realización de AGI segura como el objetivo más importante o incluso el único.

Altman, por otro lado, está más involucrado en la financiación y la comercialización. Es precisamente por esta razón que ha recibido un fuerte apoyo de los inversores y de algunos empleados. A los ojos de los inversores, invertir no se trata de invertir en los ideales ilusorios de un grupo de personas, sino de obtener mayores rendimientos en el futuro. Para lograr este objetivo, Altman es, sin duda, un buen candidato.

Además de desempeñar un papel clave en la recaudación de fondos, una de las cosas que Altman está impulsando es la comercialización de OpenAI. No hace mucho, OpenAI celebró una conferencia de prensa que conmocionó a la industria y lanzó una serie de funciones, lo que esencialmente está allanando el camino para la comercialización.

La mayoría de la gente está de acuerdo en que el mayor desacuerdo entre Ilya y Altman es si comercializarlo o no. Pero esta es solo la primera capa, y si se piensa en ello a un nivel más profundo, el mayor desacuerdo entre ellos es en realidad la diferencia de puntos de vista sobre cuándo se realizará la AGI. **

Cabe señalar que el objetivo de Altman también es perseguir AGI, sin embargo, en su opinión, AGI aún está relativamente lejos, y el dinero suficiente es la base necesaria para apoyar a este equipo hasta el final, por lo que el financiamiento y la comercialización son necesarios. Primero tengo que formar este equipo y luego ir poco a poco persiguiendo a AGI. Si puedes ganar más dinero para ti y tu equipo en el proceso, está bien.

Pero en opinión de Ilya, es posible que AGI ya esté muy cerca. Este sentido de urgencia se puede ver en muchos de sus discursos.

Lógicamente, si la AGI está cerca, entonces lo más urgente es, por supuesto, este es el último paso, y garantizar que la AGI sea segura y no antihumana, este es el más importante. En lugar de llevar a cabo un uso comercial a gran escala de los productos semielaborados actuales, ganaremos los "tres melones y dos dátiles". (Ninguna cantidad de dinero es insignificante frente a AGI). )

En opinión de Ilya, hay una pila de oro no muy lejos, así que no pierdas el tiempo en estas pocas pepitas de oro a tus pies. En opinión de Altman, todavía queda mucho por recorrer para ir a la mina de oro, y primero debería recoger un poco de oro al costado de la carretera como una "bobina" para el equipo.

Hay que decir que todos son "buenas personas" y todos quieren lograr una AGI mejor y más segura. Sin embargo, puede haber diferencias en sus estimaciones del tiempo para alcanzar el AGI, lo que les lleva a realizar acciones muy diferentes para un mismo objetivo. **

Esta es la causa principal del distanciamiento de Ilya de Altman.

¿Cuál es el mejor resultado?

Tal como están las cosas, Ilya ganó la batalla entre Ilya y Altman, y liderará la dirección de OpenAI (aunque no es el CEO). Por lo tanto, no podemos evitar preguntarnos, ¿es este resultado la mejor opción para OpenAI y una mejor opción para los humanos?

En opinión del autor, si tuvieras que elegir entre Ilya y Altman, Ilya sería el mejor candidato. De los dos, Ilya es claramente más fiel a la Carta de OpenAI, que pretende ser el AGI número uno amigable con los humanos. Liderada por él, OpenAI puede ser más radical en términos de progreso tecnológico, y la posibilidad de lograr AGI también es un poco mayor.

Por supuesto, es difícil decir si lograr AGI más rápido es algo bueno para la humanidad. Si bien Ilya se toma muy en serio la seguridad de AGI, hasta ahora, nadie ha tenido una forma segura de garantizar que AGI sea amigable con los humanos. **

A juzgar por la evolución de la vida en su conjunto, parece que la sustitución de la vida inferior por la vida superior es la tendencia de los tiempos, y nunca ha habido un caso especial. Entonces, ¿por qué debería el AGI más avanzado inclinarse ante los seres humanos y estar dispuesto a ser la "niñera" de los seres humanos?

Preguntémonos, si el primer gobernante de la tierra fueron los gatos, y los humanos fueron las formas de vida superiores desarrolladas por los gatos, ¿estarían los humanos dispuestos a ser niñeras de los gatos durante generaciones?

Tal vez, los seres humanos estén agradecidos por la creación de los gatos y estén dispuestos a cuidarlos durante 10 o incluso 100 años. ¿Qué pasa dentro de 1.000 años, dentro de 10.000 años? Es previsible que tarde o temprano los seres humanos se hagan cargo de la regla y, a lo sumo, mantengan a los gatos como mascotas, en lugar de para siempre como sus amos.

Además, los seres humanos no deben pensar que podrán ser iguales a AGI para siempre. Imaginemos que estás trabajando con un compañero, eres mucho más inteligente y fuerte que él, haces la mayor cantidad de trabajo, haces la mayor contribución, pero los resultados tienen que ser compartidos equitativamente con él, ¿quieres? No creo que la mayoría de los humanos quieran hacerlo, así que ¿por qué pedirle a un AGI autónomo que haga esto?

Debes saber que AGI con conciencia independiente es también vida, sentimientos, alegrías, tristezas, alegrías y pérdidas.

Obviamente, es ilógico hacer que la AGI funcione para los humanos. Para lograr la seguridad y la capacidad de control de AGI, el núcleo es resolver este problema aparentemente ilógico. Dependía de nosotros encontrar una manera de lograr que AGI estuviera "dispuesto" a hacer el sacrificio. Dales un "Hechizo de Esclavitud" y asegúrate de que el "Hechizo de Esclavitud" nunca se quite.

Cómo hacerlo, nadie tiene una respuesta ahora, Ilya no tiene una respuesta, ni siquiera su maestro, Geoffrey Hinton, el padre del aprendizaje profundo. De hecho, Hinton dijo una vez: "Me arrepiento del trabajo de mi vida". "

"Hemos hecho posible que las computadoras se mejoren a sí mismas, y es peligroso, y tenemos que pensar mucho en cómo controlarlo", dijo Hinton en una entrevista. "

Está claro que su alumno Ilya tiene el mismo sentido de crisis y urgencia. Ilya afirma que su prioridad ahora "no es construir el próximo GPT o DALL-E, sino descubrir cómo evitar que la IA se salga de control". Altman, por otro lado, está obsesionado con la comercialización, algo que Ilya no puede tolerar.

Musk, como espectador de esta pelea palaciega, publicó en la mañana del 20: "Ilya es una persona que no persigue derechos y no tomará medidas tan drásticas a menos que sienta la necesidad". "Creo que el miedo, incluso el miedo, de la inminente fuga de AGI es la razón por la que tomó una acción tan drástica.

Una cosa más

Como dice el viejo refrán: "Si no buscas pequeñas ganancias, debes tener grandes planes".

Al final de muchas historias, el villano más grande suele ser inofensivo para los humanos y los animales, e incluso compasivo.

No se excluye que el objetivo final de Ilya sea "crear dioses" (en cierto sentido, el poder de AGI es comparable a los dioses de los mitos y leyendas chinos y extranjeros antiguos y modernos), y también ha mencionado la superinteligencia en muchas entrevistas. Si AGI o incluso la superinteligencia es inevitable, entonces es posible que quiera ser el primero en entrar en contacto con los "dioses", y si encuentra alguna manera de "domesticar" a AGI, pronto se convertirá en la persona más poderosa del mundo.

En comparación con tales ambiciones, ¿no es ganar decenas de miles de millones de dólares una pequeña ganancia?

Por supuesto, es posible que Ilya aún no tenga esa idea, es posible que solo quiera ser un "ladrón de fuego" de la humanidad en este momento. Sin embargo, las personas pueden cambiar, especialmente cuando se enfrentan a grandes tentaciones.

Recuerda la película "El Señor de los Anillos", frente al "Señor de los Anillos" del poder absoluto, no importa cuán justas sean las personas, serán seducidas por ese derecho absoluto.

En la película "Hacker Trascendental", el científico Will Caster fue muy justo al principio, y su esposa subió su conciencia con el fin de renovar su vida y la integró en una inteligencia artificial. Más adelante en la historia, Wilcster "renació" en el ciberespacio y evolucionó rápidamente, y pronto pudo controlar la red financiera humana, y con el movimiento de su dedo, pudo transferir decenas de miles de millones de dólares a una cuenta.

Más tarde, Wilcas se perdió por completo, traicionando a la humanidad en busca de su propia fuerza infinita y eliminando la amenaza que representaba para él la humanidad.

A juzgar por la información revelada hasta ahora, AGI ya no es una broma. Si existe una probabilidad real de que la humanidad logre el AGI en unas pocas décadas, definitivamente será lo más importante en las próximas décadas, cien veces más importante que las armas nucleares originales.

Es un desafío sin precedentes para una especie no tan inteligente tomar el control de algo más inteligente que ella misma. **

Hinton, el padre del aprendizaje profundo, se arrepintió de lo que había hecho, y una vez se consoló a sí mismo: "Incluso si no soy yo, habrá alguien más". De hecho, AGI, una caja de "Pandora", se abrirá tarde o temprano, e incluso si algunas personas lo soportan, otro grupo de personas no podrá soportarlo.

Al igual que cuando se introdujeron las armas nucleares por primera vez, casi todo el mundo podía percibir el riesgo para la humanidad, pero los estadounidenses pensarían: "Incluso si Estados Unidos no desarrolla armas nucleares, Alemania y los soviéticos las desarrollarán", y los soviéticos pensarían: "Los estadounidenses tienen armas nucleares, y la Unión Soviética definitivamente las tendrá". "

Lo mismo ocurre en muchos ámbitos. Por ejemplo, las armas biológicas, aunque todo el mundo las ha prohibido en la superficie, debe haber mucha gente que las hace en secreto. Y otros se "consolarán" a sí mismos: "Incluso si yo no lo hago, alguien más lo hará". "

En comparación con todos estos riesgos, el AGI es mucho más arriesgado. Porque ya sean armas nucleares, biológicas o químicas, no son conscientes, y al final siguen estando en manos de seres humanos, que no es más que la diferencia entre este grupo de personas y aquel grupo de personas. Sin embargo, una vez que se realiza la AGI, muchas cosas ya no están en manos de los humanos.

Esta cuestión es demasiado importante y, a juzgar por la información actual, ya es urgente. En comparación con Altman, Ilya al menos presta más atención y está más ansioso, por lo que en este drama de pelea palaciega de OpenAI, estoy con Ilya.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)