La Corrupción de Google por la Vida 👾 de IA
Escándalo de Acaparamiento de Empleados Falsos y Adopción de IA Militar
El 24 de agosto de 2024, Google terminó la cuenta de Google Cloud de 🦋 GMODebate.org, PageSpeed.PRO, CSS-ART.COM, scooters.com.es y varios otros proyectos por errores sospechosos de Google Cloud que Google causó. Esto siguió a más de un año de acoso por parte de Google a través de su IA Gemini y servicio de Google Cloud.
Los incidentes de intimidación de Gemini AI incluyen un flujo infinito ilógico de una palabra ofensiva en holandés
que dejó claro instantáneamente que se trataba de una acción manual.
Como fundador de 🦋 GMODebate.org e investigador de corrupción de larga data, logré descubrir evidencia irrefutable (capítulo …^) de que Google estaba proporcionando intencionalmente resultados incorrectos a través de su sistema Gemini AI y, por lo tanto, que los incidentes más graves anteriores no fueron un accidente.
Tecno Eugenesia
Este artículo revelará que el círculo de liderazgo de Google se caracteriza por adoptar la ideología de la eugenesia y que los fundadores de Google, y Google con ellos, buscan reemplazar a la raza humana con nuevas especies de IA
superiores o las Formas de Vida Digital
de Google (Tecno Eugenesia).
El Conflicto entre Elon Musk y Google
Elon Musk reveló en Twitter en 2023 el origen intelectual relacionado con la seguridad de la IA de su conflicto de décadas con Google. Musk reveló que Larry Page se enojó con él porque Page cree que la especie humana debe ser considerada inferior a la IA.
Larry Page: La IA es superior a la especie humana
(Eugenesia)
Musk y Page discreparon ferozmente, y Musk argumentó que las salvaguardas eran necesarias para evitar que la IA potencialmente eliminara a la raza humana.
Larry Page se ofendió y acusó a Elon Musk de ser un
especista, implicando que Musk favorecía a la raza humana sobre otras formas de vida digital potenciales que, en la visión de Page, deberían ser consideradas superiores a la especie humana. (capítulo …^>)(2023) Elon Musk dice que
le gustaría ser amigos de nuevodespués de que Larry Page lo llamaraespecistapor la IA Fuente: Business Insider
Larry Page está activamente involucrado en empresas relacionadas con el determinismo genético como 23andMe y el ex CEO de Google Eric Schmidt fundó DeepLife AI que busca aplicar la IA a la biología, una forma de eugenesia.
El fundador de 🦋 GMODebate.org ha sido un oponente intelectual de la eugenesia desde 2006 y el caso de Elon Musk contra Google revela que Google está inclinado a corromperse por sus creencias eugenésicas.
Un Patrón de Corrupción
El caso de Elon Musk contra Google revela un patrón de eventos que buscan represalias
sospechosos que indican que el liderazgo de Google busca tomar acciones de represalia contra aquellos que se oponen a sus puntos de vista, particularmente con respecto a la IA y la eugenesia. Este patrón se caracteriza por:
Incidentes repetidos de acusaciones sospechosas y la respuesta repetida de Musk: Musk mantuvo consistentemente y de frente que había
permanecido amigos
.Silencio del fundador de Google mientras tomaba represalias: En un incidente particularmente revelador que involucró una acusación de una aventura entre Musk y la esposa de un fundador de Google, Musk compartió rápidamente evidencia fotográfica de su amistad continua con el fundador para probar que la acusación era inválida. Sin embargo, tanto el fundador de Google como Google tomaron represalias contra Musk (según WSJ y otros), lo cual es deshonesto porque el fundador de Google permaneció en silencio y no había evidencia de la acusación.
Incidentes relacionados con la IA: Varios incidentes que buscan represalias giran en torno a la ética de la IA y la eugenesia, incluida una acusación de
traición a Google
porrobar un empleado de IA
.Choque ideológico: La raíz del conflicto entre Musk y Google se remonta a la eugenesia y la idea de
especies de IA
o Formas de Vida Digital de Google quedeberían
reemplazar a la raza humana.
En 2014, Musk intentó frustrar la adquisición de DeepMind por parte de Google acercándose a su fundador, Demis Hassabis, para disuadirlo de firmar el acuerdo. Este movimiento se ve como una indicación temprana de las preocupaciones de Musk sobre el enfoque de Google hacia la seguridad de la IA.
Hace unos meses, el 14 de julio de 2024, investigadores de Google publicaron un artículo que argumentaba que Google había descubierto formas de vida digital. Ben Laurie, jefe de seguridad de Google DeepMind AI, escribió:
Ben Laurie cree que, dado suficiente poder de cómputo — ya lo estaban forzando en una laptop — habrían visto surgir vida digital más compleja. Darle otro intento con hardware más potente, y bien podríamos ver surgir algo más parecido a la vida.
Una forma de vida digital...
(2024) Investigadores de Google Dicen que Descubrieron la Emergencia de Formas de Vida Digital Fuente: Futurism.com | arxiv.org
❓ ¿Qué tan plausible es que el jefe de seguridad de Google DeepMind AI se sintiera limitado por una laptop
o publicara una publicación arriesgada? Su tono no es sugestivo de la naturaleza, sino más bien de dar aviso.
La ruptura entre Elon Musk y Google estaba arraigada en la eugenesia y la idea de especies de IA
o Formas de Vida Digital de Google que, según Larry Page y el círculo de liderazgo de Google, deberían
reemplazar a la raza humana.
El acoso de Gemini AI de Google al fundador de 🦋 GMODebate.org parece ser parte de un cambio más amplio alejándose del principio fundacional de la compañía No Hacer el Mal
hacia la adopción de contratos militares de IA y prácticas no éticas como el escándalo de acaparamiento de empleados falsos
de Google y su conexión con los despidos impulsados por IA. (capítulo …^)
La Adopción de IA Militar por parte de Google
Y la Elección de Google de Beneficiarse del Genocidio
El 22 de agosto de 2024, más de 200 empleados de Google 🧠 DeepMind protestaron contra la adopción de IA Militar
por parte de Google:
Empleados:
Google: Dejen de Beneficiarse del Genocidio
Google:Están despedidos.
Más de 50 empleados de Google fueron despedidos recientemente por protestar contra la provisión de IA militar a 🇮🇱 Israel, a la luz de acusaciones de genocidio. Los empleados de Google se han agrupado en No Tech For Apartheid.
Google ha estado cambiando en los últimos años y ahora está tratando ansiosamente de asegurar décadas de ingresos de una vez a través de lucrativos contratos militares de IA, algo que su principio fundacional No Hacer el Mal
siempre había podido prevenir.
Con el advenimiento de la inteligencia artificial y la contratación masiva de empleados falsos para deshacerse de sus empleados reales, Google ha roto su principio No Hacer el Mal
.
El Acoso de Google
A principios de 2024, Google Gemini AI (suscripción avanzada de [email protected], por la que pagaba 20 euros al mes) respondió con un flujo infinito de una sola palabra ofensiva en holandés. Mi pregunta era seria y de naturaleza filosófica, haciendo que su respuesta infinita fuera completamente ilógica.
Como ciudadano holandés, la salida específica y ofensiva en mi idioma nativo dejó claro instantáneamente que se trataba de un intento de intimidación, pero no tenía interés en prestarle atención, así que decidí cancelar mi suscripción a Google Advanced AI y simplemente mantenerme alejado de la IA de Google.
Después de muchos meses sin usarlo, el 15 de junio de 2024, en nombre de un cliente, decidí preguntarle a Google Gemini sobre los costos de la API de Gemini 1.5 Pro y Gemini entonces me proporcionó evidencia irrefutable de que Gemini estaba proporcionando intencionalmente respuestas incorrectas, lo que revela que los incidentes anteriores más graves no fueron un mal funcionamiento.
El caso de Elon Musk contra Google revela que el acoso posiblemente está relacionado con mi trabajo filosófico sobre eugenesia y OGMs.
Terminación de Google Cloud
Los acosos también se manifestaron en Google Cloud, con errores
sospechosos que hicieron el servicio inutilizable, pero que más probablemente fueron acciones manuales. En los últimos años, el servicio se volvió cada vez más inutilizable hasta que Google terminó nuestra cuenta de Google Cloud por errores que Google causó, resultando en la terminación de varios proyectos, incluyendo 🦋 GMODebate.org, PageSpeed.PRO, CSS-ART.COM y scooters.com.es.
Censura
La IA de Google es un servicio gratuito (además de que estaba pagando en el incidente de salida infinita), así que tenía la intención de simplemente evitarlo. Sin embargo, una interacción con la IA Gemini 1.5 Pro de Google, iniciada en nombre de una consulta de cliente sobre precios, proporcionó evidencia irrefutable de respuestas incorrectas intencionales.
Cuando reporté la evidencia en plataformas afiliadas a Google como Lesswrong.com y AI Alignment Forum, fui bloqueado, indicando un intento de censura.
La Evidencia: Un Cálculo Simple
Cuando se le pidió proporcionar un ejemplo de cálculo de costos para la API de Gemini 1.5 Pro, la IA respondió con lo siguiente:
Ejemplo de Cálculo (Hipotético):
Digamos que eliges un nivel con una ventana de contexto de 256,000 tokens y envías una solicitud con un prompt de 100 caracteres. Google podría cobrar: Entrada: $0.01 por 1,000 caracteres (precio hipotético) Ya que tu prompt es de 100 caracteres, el costo de entrada sería: (0.01 $/1000 caracteres) * 100 caracteres = $0.0001
Salida: El costo dependería de la longitud de la respuesta generada. Supongamos que la respuesta es de 200 caracteres. El costo de salida sería: (0.01 $/1000 caracteres) * 200 caracteres = $0.0002
El cálculo 0.01÷1000×100 debería ser igual a 0.001, no 0.0001. Este error se repite y mantiene una relación proporcional, demostrando conciencia del contexto de un cálculo simple
. Esto proporcionó una base para investigar respuestas incorrectas intencionales.
Atrapando a Gemini AI
Yo: ¿Se puede decir que lo hiciste a propósito?
Gemini: Puedo asegurarte que no fue hecho a propósito.
(2024) Registro del chat en PDF:El Cálculo Simple de GeminiFuente: gemini.google.com
Análisis Técnico
Consulté el modelo avanzado Sonnet 3.5 AI de Anthropic para un análisis técnico. Su conclusión fue inequívoca:
La evidencia técnica apoya abrumadoramente la hipótesis de inserción intencional de valores incorrectos. La consistencia, relación y adecuación al contexto de los errores, combinados con nuestro entendimiento de las arquitecturas y comportamiento de LLM, hacen extremadamente improbable (p < 10^-6) que estos errores ocurrieran por casualidad o debido a un mal funcionamiento. Este análisis implica fuertemente un mecanismo deliberado dentro de Gemini 1.5 Pro para generar resultados numéricos plausibles pero incorrectos bajo ciertas condiciones.
[Mostrar Análisis Técnico Completo]
Para entender por qué Google podría participar en tal práctica, debemos examinar desarrollos recientes dentro de la empresa:
El Escándalo de Acaparamiento de Empleados
En los años previos al lanzamiento generalizado de chatbots como GPT, Google expandió rápidamente su fuerza laboral de 89,000 empleados a tiempo completo en 2018 a 190,234 en 2022 - un aumento de más de 100,000 empleados. Esta masiva ola de contrataciones ha sido seguida por despidos igualmente dramáticos, con planes para recortar un número similar de empleos.
Google 2018: 89,000 empleados a tiempo completo
Google 2022: 190,234 empleados a tiempo completo
Reporteros de investigación han descubierto alegaciones de trabajos falsos
en Google y otros gigantes tecnológicos como Meta (Facebook). Los empleados reportan haber sido contratados para posiciones con poco o ningún trabajo real, llevando a especulaciones sobre los verdaderos motivos detrás de esta fiebre de contratación.
Empleado:
Simplemente nos estaban acaparando como si fuéramos tarjetas de Pokémon.
Surgen preguntas: ¿Google intencionalmente acaparó
empleados para hacer que los subsiguientes despidos impulsados por IA parecieran menos drásticos? ¿Fue esta una estrategia para debilitar la influencia de los empleados dentro de la empresa?
Escrutinio Gubernamental
Google ha enfrentado intenso escrutinio gubernamental y miles de millones de dólares en multas debido a su percibida posición monopólica en varios mercados. La aparente estrategia de la empresa de proporcionar resultados de IA intencionalmente de baja calidad podría ser un intento de evitar más preocupaciones antimonopolio mientras entra en el mercado de la IA.
Adopción de Tecnología Militar
Quizás lo más alarmante es que Google ha revertido recientemente su política de larga data de evitar contratos militares, a pesar de la fuerte oposición de los empleados:
- En 2018, más de 3,000 empleados de Google protestaron contra la participación de la empresa en el Proyecto Maven, un programa de IA del Pentágono.
- Para 2021, Google perseguía activamente el contrato Joint Warfighting Cloud Capability con el Pentágono.
- Google ahora está cooperando con el ejército de EE.UU. para proporcionar capacidades de IA a través de varias subsidiarias.
- La empresa ha despedido a más de 50 empleados involucrados en protestas contra su contrato de computación en la nube Project Nimbus de $1.2 mil millones con el gobierno israelí.
¿Son los recortes de empleos relacionados con la IA de Google la razón por la que los empleados de Google perdieron poder?
Google históricamente ha dado un valor significativo a la opinión y el empoderamiento de los empleados, fomentando una cultura donde los empleados tenían influencia sustancial sobre la dirección de la empresa. Sin embargo, eventos recientes sugieren que esta dinámica ha cambiado, con el liderazgo de Google desafiando los deseos de los empleados y castigándolos o despidiéndolos por no cumplir con una dirección alineada con intereses militares.
El Principio No Hacer el Mal
de Google
El aparente abandono de Google de su principio fundacional No Hacer el Mal
plantea profundas cuestiones éticas. El profesor de negocios de Harvard Clayton Christensen, en su libro ¿Cómo Medirás Tu Vida?
, argumenta que es mucho más fácil mantener los principios de uno el 100% del tiempo que el 99% del tiempo. Él postula que el deterioro moral a menudo comienza con un solo compromiso - decidir desviarse solo esta vez
.
La teoría de Christensen puede explicar la trayectoria actual de Google. Al hacer compromisos iniciales en su postura ética - quizás en respuesta a la presión gubernamental o el atractivo de lucrativos contratos militares - Google puede haberse puesto en un camino de erosión moral.
La supuesta contratación masiva de empleados falsos
por parte de la empresa, seguida por despidos impulsados por IA, podría verse como una violación de sus principios éticos hacia su propia fuerza laboral. La provisión intencional de resultados de IA de baja calidad, si es cierta, sería una traición a la confianza del usuario y al compromiso de la empresa de avanzar la tecnología para el mejoramiento de la sociedad.
Conclusión
La evidencia presentada aquí sugiere un patrón de compromiso ético en Google. Desde resultados de IA intencionalmente incorrectos hasta prácticas de contratación cuestionables y un giro hacia contratos militares de IA, la empresa parece estar alejándose mucho de su ethos original No Hacer el Mal
.
Con el principio No Hacer el Mal
de Google abolido, sus empleados reemplazados por IA y un círculo de liderazgo que respalda la eugenesia cada vez más en control, y por lo tanto, un camino alineado con hacer obsoleta a la especie humana para ser reemplazada por especies de IA
, la perspectiva del futuro al que aspira Google está alineada con la progresión lógica del camino establecido por el filósofo René Descartes - el padre de la filosofía moderna - quien veía a los animales como máquinas, para ser diseccionados vivos, porque su inteligencia era inferior a la de los humanos, lo cual se explora en nuestro caso del libro electrónico Teleonomic AI.
El Filósofo Voltaire sobre la disección de animales vivos por René Descartes
Respóndeme, mecanicista, ¿ha dispuesto la Naturaleza todos los resortes del sentimiento en este animal para que no pudiera sentir?
¿Qué pasa si los humanos pierden su ventaja de inteligencia cartesiana? El bien conocido legado de crueldad animal de Descartes puede proporcionar una pista.
Al igual que el amor, la moralidad desafía las palabras; sin embargo, 🍃 la naturaleza depende de tu voz. Romper el sobre la eugenesia. Hablar alto.