Skip to main content
  1. Casa
  2. Apple

Tim Cook le tira muchas flores a DeepSeek: es eficiente y bueno

Una imagen de Tim Cook, consejero delegado de Apple
DTES

En la industria de Silicon Valley, existe un CEO que no está realmente tan asustado por el impulso que ha tenido Tim Cook de Apple, que al contrario de la opinión mayoritaria, celebra la llegada de la IA china.

«En general, creo que la innovación que impulsa la eficiencia es algo bueno. Y, ya sabes, eso es lo que se ve en ese modelo», dijo Cook, respondiendo a la pregunta de un analista sobre cómo los modelos de IA de DeepSeek afectarían los márgenes de Apple.

Recommended Videos

Cook continuó señalando que utiliza un modelo híbrido para su IA, en el que ejecuta algunas tareas simples localmente, usando sus propios modelos de en los chips de silicio personalizados de sus dispositivos. Mientras tanto, otras tareas más complejas sean en la nube a través de asociaciones con proveedores de modelos de IA.

Cook también dijo que Apple siempre ha adoptado un enfoque «prudente y deliberado» para este tipo de gastos.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
OpenAI acusa con pruebas que DeepSeek plagió sus modelos de entrenamiento
Una adolescente mira su teléfono con cara de sorpresa

Una grave acusación está realizando OpenAI a su más novel competidor chino, DeepSeek, ya que en una investigación conjunta con Microsoft está indicando con "pruebas concretas" de que la IA asiática entrenó su modelo con datos robados de la compañía de Sam Altman.
Fuentes de Bloomberg, dijeron que los investigadores de seguridad de Microsoft detectaron que a finales de 2024 se estaban filtrando grandes cantidades de datos a través de las cuentas de los desarrolladores de OpenAI, que la empresa cree que están afiliadas a DeepSeek.
OpenAI le dijo al Financial Times que encontró evidencia que vincula a DeepSeek con el uso de la destilación, una técnica común que los desarrolladores usan para entrenar modelos de IA extrayendo datos de otros más grandes y capaces. Es una forma eficiente de entrenar modelos más pequeños a una fracción de los más de 100 millones de dólares que OpenAI gastó para entrenar GPT-4. Si bien los desarrolladores pueden usar la API de OpenAI para integrar su IA con sus propias aplicaciones, destilar los resultados para construir modelos rivales es una violación de los términos de servicio de OpenAI. 
El jefe de la inteligencia artificial del presidente Donald Trump, David Sacks, dijo que "es posible" que se haya producido un robo de propiedad intelectual. "Hay evidencia sustancial de que lo que DeepSeek hizo aquí es destilar conocimiento de los modelos de OpenAI y no creo que OpenAI esté muy contento con esto", dijo Sacks a Fox News el martes.
Lo que dijo OpenAI
Esto es un extracto de lo que OpenAI envío como comunicado al medio Bloomberg en respuesta a esta acusación.

"Sabemos que las empresas con sede en la República Popular China (China), y otras, están constantemente tratando de destilar los modelos de las principales empresas de IA de EE. UU.", dijo OpenAI en un comunicado a Bloomberg. "Como líder en la construcción de IA, nos involucramos en contramedidas para proteger nuestra propiedad intelectual, incluido un proceso cuidadoso para determinar qué capacidades de frontera incluir en los modelos lanzados, y creemos que, a medida que avanzamos, es de vital importancia que trabajemos en estrecha colaboración con el gobierno de los EE. UU. para proteger mejor los modelos más capaces de los esfuerzos de los adversarios y competidores para tomar la tecnología estadounidense".

Leer más
¿Qué datos recopila DeepSeek? ¿Es seguro usarlo?
DeepSeek

Occidente tiene un problema de confianza con China y sus aplicaciones de internet, eso es un hecho, sobre todo a la luz de lo que está ocurriendo actualmente en Estados Unidos con TikTok. Y algo similar ya se está cuestionando sobre DeepSeek.
El ministro de Ciencia de Australia, Ed Husic, se ha convertido en el primer miembro de un gobierno occidental en plantear preocupaciones de privacidad sobre DeepSeek: "tendría mucho cuidado con eso, este tipo de temas deben sopesarse cuidadosamente", sostuvo en entrevista con ABC News.
¿Cuál es la postura de Estados Unidos?: Donald Trump ha dicho que DeepSeek es una "llamada de atención" para Estados Unidos, pero no pareció sugerir que fuera una amenaza para la seguridad nacional, sino que dijo que incluso podría ser algo bueno si redujera los costos.
¿Es un potencial problema de seguridad DeepSeek? ¿Qué datos recopila?
La misma página de DeepSeek de su Política de privacidad, ite que recopila grandes cantidades de información personal de los s, que luego se almacena "en servidores seguros" en China.
La aplicación afirma que utiliza esta información para mejorar DeepSeek al mejorar su "seguridad, protección y estabilidad".
A continuación, compartirá esta información con otros, como proveedores de servicios, socios publicitarios y su grupo empresarial, que se conservará "durante el tiempo que sea necesario".
Qué información es esa:

Su dirección de correo electrónico, número de teléfono y fecha de nacimiento, ingresados al crear una cuenta
Cualquier entrada del , incluidos texto y audio, así como historiales de chat
La llamada "información técnica", que va desde el modelo y el sistema operativo de su teléfono hasta su dirección IP y "patrones de pulsación de teclas".

Leer más
DeepSeek coder: qué es y cómo funciona
DeepSeek

¿Cómo se construye el modelo de lenguaje de DeepSeek?, ¿Necesita cierta capacidad de GPU para desarrollarse? y ¿Cómo le va contra la competencia?.
Bueno, comencemos por una definición del DeepSeek coder: DeepSeek-Coder-V2 es un modelo de lenguaje de código abierto Mixture-of-Experts (MoE) que logra un rendimiento comparable al de GPT4-Turbo en tareas específicas de código.
En concreto, DeepSeek-Coder-V2 se entrena previamente desde un punto de control intermedio de DeepSeek-V2 con 6 billones de tokens adicionales. A través de este entrenamiento previo continuo, DeepSeek-Coder-V2 mejora sustancialmente las capacidades de codificación y razonamiento matemático de DeepSeek-V2, al tiempo que mantiene un rendimiento comparable en tareas generales del lenguaje. 
DeepSeek Coder comprende una serie de modelos de lenguaje de código entrenados desde cero con un 87 % de código y un 13 % de lenguaje natural en inglés y chino, con cada modelo pre entrenado en tokens 2T. Proporcionamos varios tamaños del modelo de código, que van desde las versiones 1B hasta 33B.
"Cada modelo se entrena previamente en un corpus de código a nivel de repositorio mediante el empleo de un tamaño de ventana de 16K y una tarea adicional de rellenar los espacios en blanco, lo que da como resultado modelos fundamentales (DeepSeek-Coder-Base). Ajustamos aún más el modelo base con 2 mil millones de tokens de datos de instrucción para obtener modelos ajustados a la instrucción, denominados DeepSeek-Coder-Instruct", dicen en DeepSeek.

Entrenado previamente en 2 billones de tokens en más de 80 lenguajes de programación.
Varios tamaños de modelo (1.3B, 5.7B, 6.7B y 33B) para cumplir con diferentes requisitos.
Un tamaño de ventana de 16K, que ite la finalización y el relleno de código a nivel de proyecto.
Rendimiento de última generación entre modelos de código abierto.
Código abierto y gratuito para investigación y uso comercial.

Leer más