Navegar por las aguas del mundo del SEO y el análisis de datos puede parecer a menudo como adentrarse en un complejo laberinto. En medio de esto, Code Interpreter de ChatGPT emerge como un faro de simplicidad y eficacia.
Nuestro artículo es una pequeña muestra de lo que este potente plugin puede aportar en relación a la optimización SEO, análisis de datos complejos, y la visualización de datos para crear contenidos impactantes que impulsen tus estrategias digitales.
¿Preparado para desbloquear esta potente herramienta?
¡Empecemos!
Puntos clave de Code Interpreter:
- El complemento Code Interpreter de ChatGPT está revolucionando el análisis y la visualización de datos para los profesionales del marketing, permitiéndoles introducir datos sin formato de diversas fuentes y extraer información significativa en cuestión de minutos.
- Esta función permite a los usuarios de ChatGPT plus ejecutar código Python de forma rápida y eficaz, ahorrando tiempo en conjuntos de datos complejos y tareas de análisis.
- También puede utilizarse para la edición de archivos, eliminando la necesidad de herramientas externas.
- Con el complemento Code Interpreter, es posible ejecutar análisis de datos complejos sin grandes conocimientos estadísticos, para extraer conclusiones y tomar decisiones sobre estrategias de marketing digital.
¿Qué es el Code interpreter de OpenAI?
Code Interpreter es un complemento de última generación que simplifica el análisis y la visualización de datos y mejora las capacidades de codificación de los usuarios de ChatGPT Plus.
Los expertos en SEO y marketing digital también pueden potenciar su trabajo utilizándolo.
Este complemento permite escribir y ejecutar código Python de forma eficiente, sirviendo como tu científico de datos personal.
Además, la herramienta destaca por permitir la introducción de datos sin formato directamente desde archivos: PDF, CSV TXT, PDF, DOC, DOCX, JPEG, PNG, MP4, AVI, CSV, JSON, XML, XLS, XLSX, CPP, PY, HTML, PDF, DB, SQLite,
Proporcionando información significativa en tiempo real.
La potencia de Code Interpreter radica en que no se limita a escribir y ejecutar complejos códigos python sin esfuerzo; también permite crear tablas y gráficos visualmente atractivos a partir de datos sin procesar.
Imagina tener una IA tan inteligente que pueda convertir datos complejos en atractivas representaciones visuales; esto es lo que aporta la aplicación. Sin embargo, su versatilidad va mucho más allá del mero procesamiento de la información: te ofrece una asistencia inigualable en una gran variedad de problemas, proporcionándote soluciones integrales gracias a la aplicación de la IA.
Pues bien, para conocer a fondo sus capacidades no te pierdas nuestro podcast «El test de turing»:
Este contenido se genera a partir de la locución del audio por lo que puede contener errores.
(00:04) [Música] Hola Qué tal Cómo estáis amigos del mundo de la Inteligencia artificial otra semana más episodio número 10 con Álvaro y con Arnau de iSocialWeb qué tal Cómo estáis muy bien Hola buenos días Soy Víctor y nada esta semana hemos estado preparando cosas chulas tenemos ahí episodios en la recámara de gente potente para semana siguientes hemos hecho entrevistas de las que cuando hemos terminado las entrevistas hemos dicho buah qué chulo tenemos que poner a hacer cosas entonces bueno las iremos publicando dentro de muy poco pero tiene
(00:52) una pinta increíble entonces Os recomiendo que cuando cuando vayan saliendo les echéis un ojo pediros otra vez tema reviews comentarios seguirnos en los diversos canales de podcast que nos ayuda un montón a conseguir más audiencia un dato curioso es que he visto que estamos como el sesenta y pico en el Canal de tecnología de ibox que me parece sorprendente porque tecnología Hay muchísimo pero bueno eso me imagino que llevado al seo será como sexta página por tanto tampoco así tampoco están relevante no pero bueno cuando empezamos éramos el 1500 no
(01:29) sé cuántos de 60 y pico hay una progresión aparecer por las páginas donde están indexando estamos en algunas cosillas arnals ha preparado esta semana un dato curioso sobre el mundo de la Inteligencia artificial y nos lo va a comentar es una curiosidad sobre todo para los que no estamos en el día a día entrenando modelos que es el concepto del sobreajusto del over fitting y es lo interesante es que cuando tú empiezas a entrenar un modelo puede pasar que el modelo aprenda no tanto pero que aprenda tanto el Data set que termine como memorizándolo y al
(02:17) final realmente lo que no pueda extrapolar la información sino que la dejes exactamente a el marco de lo que se ha entrenado por ejemplo Imagínate que está entrando imágenes con perros y el Data set no la el banco de imágenes que lo usas para entrenar tiene mucho césped en el fondo o tiene por ejemplo siempre hay una puerta Pues quizá él acaba entendiendo que un perro es alguien que es un elemento que lo entiende como un perro y la puerta que hay detrás con lo cual cuando no hay puerta o cuando no hay césped entiende
(02:46) que eso no es un perro Entonces es como muy curioso el hecho de que no solamente es entrenarlo sino que luego también tienes que calibrar los sobre ajustes porque Oye Realmente si yo monto todas estas imágenes de perros con césped sin añado otra imagen de perro con césped me va a detectar correctamente al perro Pero puede indirectamente no ha entendido bien lo que era un perro entonces bueno yo es un concepto que personalmente como yo no estoy en este mundo del día a día me parece curioso que no es que puedas
(03:14) incluso pecar de exceso más que de quedarte atrás que creo que es lo evidente Me acuerdo cuando yo me iniciaban estos mundos pensando en Ah bueno sé programar cosillas sabré también hacer modelos de Inteligencia artificial cuando de repente te das cuenta de que entrenar un modelo de Inteligencia artificial puro y duro es extremadamente complejo por eso te quedas corto te pasa el rato no soy bueno no sé qué unos cuantos y te tiras una barbaridad de tiempo haciendo los test y todo eso o sea es muy complejo y la suerte que tenemos que a día de hoy
(03:48) prácticamente ni siquiera falta porque tenemos herramientas como las que vamos a comentar en el podcast todo lo derivado de Open Cloud y todo eso que nos facilita una barbaridad muchísimas cosas pues pues nada vamos con la noticia Álvaro vamos con la tuya venga Vamos allá Pues yo os traigo un anuncio que se hizo oficial hace muy poquito y es que la gente de antropic ha sacado clock 2 ya sabéis el modelo comercial posiblemente que más que más está compitiendo con los modelos de openay Y la verdad es que lo he estado testando
(04:21) luego lo contaré en la africada pero tiene cosas cosas interesantes entre entre lo que comentan que han mejorado las nuevas habilidades que tiene o las habilidades mejoradas que tiene hace referencia a la parte de codificación de generación de código que dicen que es notablemente mejor luego contaré mi opinión tema de matemáticas y tema de razonamiento vale o sea toda la parte un poco más técnica esa cuentan que hay una mejor hay una cosa interesante también Y es que el precio lo han mantenido el mismo que clotress 1.3 vale Y eso pues
(05:00) cuando te dan un modelo nuevo y encima no te disparan el precio pues es bastante bastante interesante está abierto ahora mismo en Estados Unidos y Reino Unido Aunque sí que es verdad que yo ayer entré sin sin una VPN y lo estoy usando no sé si con el lápiz que no he llegado a probarlo todavía tiene algún tipo de bloqueo pero me entré desde España lo estoy usando normal y no hubo ningún problema así que no sé si han quitado limitaciones y demás o es por la cuenta que oficialmente la registramos desde otro lado no ahí No sabría deciros Pero vamos
(05:29) en tres y nueve más cositas tema de tokens que siempre con clot es una cosa interesante ya sabéis que estábamos en ciencas ahora tenemos 100ks de entrada y ciencas de salida o sea al final Serían como 200 K Vale entonces eso está bastante bien porque ahí la respuesta suele estar bastante elaborada se le puede meter muchísima información de contexto como ya pasaba antes pero también de salida con lo cual está está genial y han metido una especie de acercamiento al codo intérprete vale que es toda la parte de su vida de su vida
(06:04) archivos y se pueden subir diferentes tipos de archivos para analizarlos y procesarlos O sea que cada vez ya estos estas herramientas de análisis de documentos y cosas así cada vez se van quedando un poco más atrás porque ya los grandes modelos están Están incorporando estas funcionalidades que son relativamente básicas y que funcionan bastante bien ya en el modelo en el modelo final y luego otra de las cosas que a mí me surgía la duda era si la comunidad ya la había empezado a testar frente a otros modelos sabéis
(06:39) lo de chatbot arena que ya lo hemos comentado en algún podcast anterior a ver si aparecía clock 2 en el en el ranking y como aparecía y de momento nada no ha habido no ha habido actualizaciones Así que habrá que esperar un poquito Me parece que han pasado tres cuatro días desde que salió o sea que Bueno todavía estamos pronto Sí pero yo creo que pegará una subida importante la verdad es que vamos estará mano a mano con gpt 4 o muy cerquita porque ya Cloud estaba muy cerquita y este es notablemente mejor así que lo mismo tenemos Alguna sorpresa
(07:12) aquí Javier tenía otro otro ranking de modelos que ahí también tiene una comunidad muy grande a lo mejor por ahí sí que lo tienen una cosa que cuando has dicho que primero me ha venido a la cabeza Ayer por la tarde estuve dándole mucha caña a lanchin que tenía unas cosas pendientes a desarrollar y tal y estuve viendo que lanchin tiene en las llamadas que se hace al modelo Tiene la capacidad de meter una llamada intermedia para condensar el contenido de la llamada principal por ejemplo a gpt 4 limitado por contexto le puedes mandar x
(07:53) cantidad de texto entonces lo que haces primero es mandarlo a 3.5 con 16.000 tokens te hace un resumen de ese de ese Pro que tú estás mandando Y entonces lo que devuelve 3.5 coges y se lo mandas a 4 directamente con ese resumen no y cuando vi esa funcionalidad que se llama condenser o algo así pensé automáticamente en Cloud O sea la capacidad que tenemos por ejemplo de pasar un PDF entero pedirle a Cloud que condense eso en algo que GP de 4 o otro modelo pueda luego hacer está bastante Guay entonces una de las cosas que molan
(08:33) de delante es precisamente eso no la capacidad de conectar diferentes modelos y al final casi por el día a día porque porque gpt 4 es el mejor con mucha diferencia al final solo acabamos tirando contra Open Ai y todo esto no Pero y de verdad Clau se empieza a poner las pilas y todo eso podríamos empezar a tener varios modelos evidentemente potentes como para concatenarlos o combinarlos para conseguir cosas más guays O sea que Bueno me parece súper chulo que encima lo que has dicho Álvaro que mantengan el coste de la Api que eso
(09:05) me parece súper súper relevante para que podamos seguir utilizando sin que nos cueste ahí una castaña Sí además la verdad es que conectar diferentes modelos vamos técnicamente no tiene ninguna complejidad yo lo tengo montado en algún Script que tengo una parte hecha con clot y otra parte hecha con con gpt 4 Exactamente para eso porque lo mismo necesitaba meter mucha información de contexto primero la proceso saco la información que necesito y luego Necesito una respuesta de más calidad y se la pasó a gt4 O sea que creo que es
(09:36) bastante interesante y de hecho ya lo hemos hablado alguna vez el hecho de Oye quizá hay modelos que están más especializados en unas áreas podemos aprovechar en una parte del cálculo un modelo determinado luego en otra otro modelo y así ir haciendo un proceso más optimizado estaba mirando lo que comentabas del ranking de modelos de High en Face y lo que veo es que son todos Open souls no están no sé si hay otro pero lo que a mí me parece interesante primero el Cloud se puede probar o sea es curioso porque ya en en pou.com ya se
(10:15) puede probar Cloud 2 que es la ya está como por defecto es decir Cloud 2 de 100ks hay una funcionalidad interesante dentro dentro a la hora de probarlo en Pou que es que ya también te da que eso creo que es una funcionalidad que no le ha añadido que es ya un suichest de seguimiento de preguntas No yo lo he hecho una pregunta así en plan chungui y la respuesta me ha respondido pero luego me ha hecho pues Oye yo a partir de aquí te recomendaría estas cuatro o cinco preguntas o sea pienso que es una funcionalidad que es como el
(10:44) autoplay casi de Netflix para tener una conversación de mayor o sea de mayor engagement No si yo te voy guiando también un poco la conversación quedamos en si será bueno malo para la sociedad eso pero bueno en cualquier caso para el uso si me parece interesante el poder incluir esa funcionalidad y yo respecto a lo que decía Víctor y me estaba acordando de la de la de mick Journey de la versión esta de 5.
(11:13) 2 lo que estaba no recordará la funcionalidad estaba estaba descargando está actualizando discos y no lo puedo subir yo no puedo ver pero la funcionalidad está de mick Journey de decir a qué le está dando peso cuando cuando hace el prom porque yo pienso que quizás todos los de 100ks sin quitarle mérito a la situación pienso que es una cosa como un poco que con el tiempo quedar como muy obsoleta porque al final realmente lo que lo que creo que va a primar es haces un pront no el primer prompt sirve o sea el primer modelo sirve para entender que es importante
(11:42) entre ese Bronx y el siguiente es ya ejecutarlo a los modelos que sean pesados O sea yo pienso que al final lo que estamos haciendo nosotros ahora es un poco churriminguero no digámoslo así en el sentido decirle Mira realmente le metemos todo y metemos la ventana de ciencas obviamente por la parte de meterle archivos grandes pero en el tiempo lo que va a ser Va a ser mucho más eficiente pues como decía Víctor con launchen un agente primero que se ponga a buscar los pedazos de información útiles que Monte el pront y lo refine Y
(12:15) luego el siguiente que lo Lance Y a eso no me refiero al pronta engine y el Víctor que lo estuve probando que lo estoy usando por privado que se comentó en el en el anterior mensaje y eso es un consumidor de tokens brutal pero pero yo pienso que Hacia dónde vamos entonces esa mezcla de un refinador de proms que vaya al prom del gran modelo ya lo comentamos con el fútbol chipití Yo pienso que tiene todo sentido del mundo Esperamos que por el tiempo actual el Cloud 2 ya se puede probar en Pou sin necesidad de pagar nada eso creo que
(12:48) está bien estaba limitado de haber visto alguna captura no tengo Pau Pero de alguna compartición por ahí que tenía algún tipo de limitación por ejemplo o sea aunque aparece el mensaje de acceso limitado a mí sí que me deja utilizarlo Sí es que estoy Ah vale si el límite de Access Yo creo que es porque luego sí que hay una que sigo pensando que yo estoy comenzando con los que no lo están usando esa es la mejor opción de todas porque el si os fijáis lo que es limitado es porque al final tienen una cuota de pago entonces lo
(13:23) interesante es que pagando 19 euros al mes te dan acceso a todos los modelos O sea creéis que este podrías ahorrar como que o sea digo yo si soy un usuario y quiero empezar antes antes pago esto digamos que digo para el abanico global no puedo o sea por cantidad no por calidad por cantidad paga 19 y tengo acceso a gp4 acceso a Cloud a un montón de agentes y realmente esto O sea yo sigo pensando que es un proyecto que está de [ __ ] hecho porque es que nadie va a consumir este consumo de apis ellos un negocio de Cuerda consume por
(13:59) Api Pero a ti te cobran un estándar no Entonces es como en fin está súper bien pensado está esta idea Entonces yo probaría por ahí yo yo le estuve dando vueltas a hacer algo parecido cuando cuando empezaban a salir todas las apis y dije por lo mismo nadie te va a llevar al límite que tú pagues al mes tal Pero lo primero que pensé que lo que me ha venido a la cabeza cuando estaba diciendo esto es que aunque tú estés consumiendo la Api gpt 4 para seguir teniendo el code assistant todas las cosas nuevas que vienen saliendo y que
(14:30) no estén disponibles en la appy y a lo mejor eso sí que aporta un valor mayor y al final acabas diciendo ostras es que sí me estoy ahorrando pasta con esto pero me estoy dejando funcionalidades importantes en otro sitio y a lo mejor la gente siempre prefiere irse allí a utilizarlos Pero bueno que para para usuarios que están empezando y quieren probar todos los modelos 19 pavos al mes por esto es una ganga vale la mía la mía noticia hay mucho clickbait en la noticia pero me parece interesante vale el Leo el titular de la noticia porque hay
(15:08) que hacer es bueno los esfuerzos que hay en hacer clickbating una y a China crea el primer procesador sin intervención humana es cuatro mil veces más rápida que sea gpt o sea vale en crear procesadores como era la noticia correcto o sea lo interesante que a mí me parece como o sea me parece un caso de uso ahora contra la noticia muy muy interesante porque básicamente Lo que sucede es los chinos claro envidia es una empresa americana vale Y claro ellos son los que están proveyendo todo el tema de los cpus y todos los procesadores que al final se
(15:49) necesitan para todo el tema de Inteligencia artificial pescar un poco el comentario ya hablando a nivel Macro político del que no tenemos ni idea fuerzas chinas Estados Unidos las competencias de Mercado ta ta ta claro china no tiene acceso a todo eso dicen no tengo ni idea entonces claro un poco la como no tienen acceso a eso lo que han puesto es han puesto un modelo el kiment 1 a diseñar un procesador que esté capacitado para pues ser el equivalente a las versiones del del a 100 o del H100 de envidia Entonces es como curioso que
(16:23) realmente en cinco horas quitando clickbait y todo eso sabes realmente que haya conseguido lo que ellos dicen Pues Oye es que es 4000 veces más inteligente que gpt 4 Más allá de eso de si lo es o no creo que lo que es brutal es que realmente este caso de uso de El no me va a montar el Hardware pero yo sí soy capaz de entrenarlo dándole todo mi inventario de de productos y que él de forma inteligente empiece o sea yo le doy el frame de donde irá el microchip y todo eso y yo y realmente empieza a hacer el diseño de toda la electrónica eso es una
(17:06) cosa que me parece como muy interesante y es un caso de uso que creo que a día de hoy sí es mucho más aplicable de lo que nos pensamos Sabes porque al final un microchip Oye si es este condensador esto puede enganchar con esto con esto y con esto este condensador no ocupa 3 milímetros o bueno o tres centímetros o sea y al final son parámetros que si lo pensamos son bastante básicos sabes o sea son bastante básicos en cuanto o sea hay que entrenar lo que que no le quito mérito pero me pareció muy interesante
(17:33) el que es lo hemos visto en todo el tema de detección de radiografías y todo eso que es algo como el ojo humano no es capaz de ver ese tipo de cosas o en el sistema astronomía en la gastronomía no es capaz de detectar cierto tipo de movimientos planetarios no como cuando se descubrió Plutón pero yo no me lo había planteado en diseñar cosas que también son con perdón de la presión trabajos de chinos sabes O sea que es básicamente pues diseñar un microchip o directamente un procesador entero entonces bueno esa es la idea más
(18:05) allá del clickbait me pareció muy interesante porque cuando decía al final dentro de cinco años habrá cpus mejor diseñadas por Inteligencia artificial que por humanos es que me parece que evidente que va a ser mejor porque es que es mucho más eficiente hacer este tipo y todo este ensayo error ensayo error sin yo meterme a meter una cantidad de aplicaciones muy fuertes que eso es un poco lo que pasa es que yo me imagino La idea inicial es como imaginarte el tío con la maquinita montándolo que eso también va a llegar
(18:34) pero es que no necesito llegar a eso para entender que el propio diseño que es lo que me dará rendimiento eso es lo que es potente y luego ya se ensamblará y ya será otro otro pero es que solo el ensamblaje ya es otra cosa Sabes entonces bueno esa es la noticia y me pareció bastante interesante la verdad es una barbaridad porque encima es que es aplicable a todas las cadenas de proceso de producción del mundo cualquier cosa hacer relojes hacer coche hacer No sé qué O sea llegar a puntos en los que esa producción sube a nivel el
(19:05) mismo ejemplo lo comentamos aquí o sea seguro que se ha hecho de otra forma pero pero grandes rasgos lo mismo Esa esa vacuna que se hizo no nos vacunaron antibiótico que se hizo en base a este en mi laboratorio tengo todas estas estos elementos químicos que puedes unir generar un antibiótico para tal a través de randomizar de no sé qué no Cuántos y detestar en cada una de las pruebas al final acaba saliendo Una que esos científicos son capaces de producir en ese momento porque tienen esos recursos disponibles en el propio laboratorio
(19:37) pues es que es una barbaridad Y lo del procesador esto es también muy relevante porque ya no es solo que seamos capaces de producir procesadores más rápido sino que al ser capaces de producir un procesador más rápido seremos capaces de hacerlo de mayor calidad cuando se normalice esto y al final la computación tal y como la conocemos los ordenadores personales también tendrán otro salto grande de tecnología precisamente por impulsado por la Inteligencia artificial esta semana Now no diremos nombres Pero has estado hablando con alguien del
(20:09) mundo de la computación cuántica y que Esperamos que en algún momento venga el podcast y seguro que va mucho por la línea de esto no que al final es algo tan teórico tan complicado de llegar hasta ese punto que tienen que apoyarse todas estas técnicas para poder ser capaces de hacer todos los cálculos para para predecir un poco Hacia dónde van estas tecnologías Muy bien pues voy yo con mi notificación totalmente de decir que gracias a que Álvaro me la ha pasado y tenemos noticia hoy por mi parte Así que muchas gracias
(20:42) Álvaro hablar de un artículo de Open hay que bueno Están últimamente publicando mucho Sobre más sobre la parte ética que sobre su propio producto yo creo que también es un poco de nombrar que al final ese hype que sufrimos en febrero marzo en el que ahora apenas hace una presentación ahora la hace Microsoft ahora hace Google pues se va normalizando ya estamos en el punto es en el que ya no nos enfrentamos a tantos a tantos cambios en los diferentes modelos además llega el verano todo el mundo se va de vacaciones y bueno
(21:21) últimamente están más hablando sobre sobre ética sobre futuro y demás más que sobre su propio producto no lo curioso de esta noticia es que había un párrafo que me ha gustado mucho que creo que es importante reseñar se habla sobre la super alineación que están desarrollando para que la súper inteligencia sea capaz de llegar en algún momento en ese artículo hablan sobre que la superinteligencia será por mucho más inteligente que los humanos y ahí sí que empezamos a hablar de Terminator y de rollos similares y entonces como que
(21:54) están preocupados entre comillas por por controlar a esta superinteligencia no y lo que me ha gustado mucho de este artículo es que lo que nombran es que están dedicando un 20% de la computación que actualmente tienen para investigar lo han planificado así Durante los próximos cuatro años a resolver el problema sobre cómo alinear esta superinteligencia con los intereses que tenemos ahora mismo de proteger el ecosistema humano entonces como que me parece una una apuesta una inversión muy grande que inviertas el 20% de algo tan
(22:32) valioso como los recursos de que es ahora mismo para Open que recordemos que Open dio una entrevista no oficial y en una en una empresa en human Loop y luego human look retiro ese artículo y en esa esa entrevista que Dios amalman se decía que su mayor problema ahora mismo es escalar el uso y que no están utilizando por ejemplo el multimodal porque no son capaces de tener capacidad de computación suficiente como para lanzar todas estas cosas Pues ahora sale una noticia diciendo que están dedicando el 20% a investigación por eso también se
(23:06) ve un poco ahí esa filosofía de openide de Bueno nos hemos convertido en un bicharraco Pero por otra parte seguimos siendo un laboratorio de Inteligencia artificial Que quiere un poco indagar Investigar sobre nuevas cosas no entonces bueno iremos viendo como como lo plantean en el artículo hablan de cosas interesantes sobre que ahora mismo son capaces de unificar diversas inteligencias artificiales pero para generar una súper Inteligencia artificial debería un montonazo de estas inteligencias artificiales y generar ese
(23:37) ese esa gran estructura y eso es lo que ahora mismo no son capaces de hacer la semana pasada comentamos que se había filtrado un posible una posible arquitectura de cómo funcionaba gpt 4 que era al final conectar ocho modelos A lo mejor es que esta gente ya está investigando en conectamos 100 200 300 modelos e intentamos conseguir conseguir algo así más grande no así que bueno artículo un poco burocrático pero pero me ha gustado mucho Esa esa parte de dedicar el 20% de su computación a la investigación tampoco tenía mucho
(24:11) alternativa Víctor de que no te gustara que estaba Álvaro pues Álvaro me da opciones no pero que yo yo esta semana está siendo muy complicada la audiencia no pero que yo pienso que pienso que es súper importante la de computación y luego es eso sí si realmente parte de sus esfuerzos en vez de ese 20% un 10 deberían de dedicarlo eso creo que lo comentamos no sé si en el episodio octavo o séptimo el tema de que Google ya había conseguido reducir un 40% el consumo de procesadores por optimización de recursos o sea un poco el uno es o
(24:59) sea es esta idea de montar un procesador eficiente pero es que claro es que la misma lógica aplica en cuanto o sea más potente disculpad pero también tenemos a Google según la noticia desarrollando o sea dedicando esfuerzos a optimizar los recursos que eso es una parte o es una pata como muy muy muy correcta No si lo ves como una empresa es más ingresos es vender más pero es que los costes es tu procesamiento porque más sea del equipo es en computación va a tener unos costes brutales entonces me parece como muy
(25:31) acertado esa parte que quizá no sé cuánto le están dedicando los de openay Y si les interesa me parece inteligente que Google sí lo esté haciendo y luego para mí sigue siendo una alegría la noticia que dice la semana pasada de que GP de 4 fuera la amalgama de varios de varios modelos porque ya también lo estamos viendo con todas las entrevistas que estamos teniendo con gente que está en el mundo ya lo estamos viendo que incluso lang Chain estaba montando a agentes específicos para micro tareas y básicamente lo que nos están diciendo
(26:01) los expertos era Oye mira es que en el momento que el tío que pones una gente hacer muchas cosas se pierde Entonces al final es mucho más primero que me parece mucho más mucho más de las mejores noticias que yo he oído mucho tiempo no la de que sean una amalgama de varios modelos porque es que eso es lo mejor que puede pasarnos que realmente sea una amalgama de muchos modelos no Y nosotros añadiendo los que van siendo útiles y los que no van siendo útiles no los pones Pero que sea lo típico de no tiene un trillón de parámetros de no sé qué
(26:30) hostias que eso parece bastante difícil de digerir sabes y ya lo ves en todos lados en las empresas es famoso el modelo de Google de micro equipos en el O sea que en todos lados parecen la misma dinámica sabes que sea mucho mejor poco ensamblado y ágil que no una una catedral de parámetros datos y eventos entonces Bueno me parece interesante por esos por esas aristas también la noticia a nivel empresarial tiene bastante sentido Por ejemplo pensando en Palm Que bueno lo tenemos ahí un poco apartado no pero ya cuando hicieron la presentación
(27:07) los de Google Cloud Google ya nombraron que iban a entrenar a medpal y al de ciberseguridad de tal Y tiene mucho sentido no porque Claro si tú dejas que usuarios hagan preguntas en Google médicas y te va a contestar el Google el Palm genérico pues se va a equivocar pero si hay algo una Capa intermedia una gente o un modelo específico un router que es capaz de diferenciar A dónde va te vas a asegurar que todas las preguntas médicas vayan a medpad que está súper optimizado para eso que tiene una fuente de información
(27:41) muy concreta que no se va a salir de ahí que sabes con que lo has entrenado que no lo has entrenado con cualquier blog que esté hablando sobre medicina entre comillas y te vaya a decir algo O sea que a nivel empresarial también se cubre mucho las espaldas y lo hacen de esa forma entonces bueno iremos viendo yo la verdad que también me Mola ese concepto lo curioso es que ya lo comentáis la semana pasada en el artículo decía lo contrario decía cuidado qué Open ahí no ha reinventado las ruedas simplemente ha juntado ocho ruedas
(28:10) se ruedaban mejor que uno que has unido las dos noticias que te daba así de una forma sin darte cuenta prácticamente están ahí con los de Clínica Mayo O sea que sí sí Bueno simplemente Eso me parece que tiene sentido Bueno pues vamos con el tema de la semana que no hemos dicho nada esta semana ha habido Revolución otra vez porque Open hay anunció durante el mes que viene Vais a empezar a utilizar y el día siguiente Ya teníamos activado el código intérprete Y la verdad es que bueno está internet haciendo pruebas y
(28:55) subiendo vídeos tweets en linkedin tal Y ahí tal cantidad de casos de uso que es que parece que nos hayan dado otro chat gpt y estemos otra vez enfrentándonos a esto es una barbaridad cómo lo habéis vivido vosotros que estáis ahora mismo que es lo que estáis haciendo y en qué punto de hype estáis porque yo ya he escuchado algo de arma o antes y algún speeds tenemos ahora mismo sobre sobre eso pues yo en mi caso estoy bastante hypeado o sea lo estuve probando Así que es verdad que me dieron acceso que de hecho os lo pasé pues dije mira ya tengo
(29:31) acceso Me parece que fue el jueves pasado o algo así tuve tuve el acceso me puse a jugar con ello y creo que nos lo abrieron a todos a la vez y no sé se alinearon los astros que justo entre y mi primera experiencia fue [ __ ] Qué [ __ ] es esto porque cada vez hacía una pregunta Esto está bloqueado esto no sé qué no proceso el documento el documento está dañado o sea estuve los primeros créditos me los fundí simplemente en eso pero a la que dejé que bajara todo toda la vorágine de gente ahí testando como locos y empecé a
(30:04) probarlo al día siguiente la verdad es que los resultados me han vamos me están gustando me están gustando bastante Quizá antes de entrar en opiniones podíamos explicar un poco qué es y qué limitaciones tiene y así un poco en materia si os parece que no sé si que queréis explicarlo alguno o tiro millas Pues nada básicamente para que no lo sepa el código interpreter Es un complemento que han añadido en chat gpt que está en beta como la mitad de las cosas que estamos probando y que nos permite dentro de dentro de gpt 4 hacer
(30:38) una instancia que pueda ejecutar código de python no solo eso sino que además podemos subir archivos para que se puedan procesar dentro de esa llamada a ese color vale tiene una serie de limitaciones ojo que dicho código en python no es código en cualquier lenguaje de programación es en python Aunque hay ciertas limitaciones Aquí y ahora veremos cosas interesantes limitación número uno que no tiene acceso a internet Vale que eso hay mucha gente que se está quejando pero ahora veremos que bueno esa limitación es
(31:09) bastante lógica luego hay una cosa interesante que es que esa instancia de la máquina que te están dando es durante un período de uso y si no la usas de forma activa muere y pierde todo el contexto que parece una tontería Pero hay veces que estás haciendo un análisis te llama alguien por el chat haces no sé qué vuelves Y te has quedado sin sin la mitad de la información que estás procesando ahí o sea que eso es un punto interesante luego carga un máximo de 100 megas por documento aunque ya le han hecho jailbreak a esto y ya eso se le han
(31:39) saltado solo ejecuta código de python como os decía y ya se lo han saltado también no permite la instalación de paquetes externos pero también se la han saltado Entonces eso está bastante bastante Guay hay un desarrollador polaco que lo dejaremos en los comentarios que se llama scals o algo así luego os lo pondremos ahí y este tío tiene una web vamos una URL en github donde va contando Cómo se ha saltado las diferentes etapas y cómo lo documenta como lo ha hecho y tal Y está súper chulo Pero al final básicamente casi todos los hackeos o los
(32:20) saltos estos los jailbreak que están haciendo es básicamente que como te deja subir archivos claro suben cualquier cosa Vale entonces al poder subir Cualquier cosa pues subes un paquete de otra de otro lenguaje de programación lo instalas pues ya ejecuta javascript por ejemplo o como te deja navegar por la estructura de carpetas pues se han dado cuenta que podían navegar por la estructura podían ver todo el árbol podían ejecutar un modelo que había allí como gp2 o podían cambiarle los permisos a la estructura de carpetas y en el
(32:49) momento que le cambiaban los permisos podían instalar lo que les diera la gana o podrían cambiarlos los parámetros de configuración con lo cual lo de las limitaciones vamos es acojonante la verdad es que la gente nos van a quitar el código intérprete la semana que viene no estamos listos todavía estaba súper chulo Pero bueno hacía limitaciones oficiales serían serían esas y ahora ya si quieres arnautas tu parte de hype Sí o sea yo yo tengo mucho hype sobre una parte concreta del de lo que puede hacer con intérprete además de lo que habéis dicho
(33:24) también permite que son cosas que son bastante interesantes ahora cuento si si lo he conseguido no porque es que esa es otra pero cosas como me valen súper potentes como realmente extraer el texto de una imagen vale eso según fotos porque yo ya digo yo eso no lo he conseguido sabes se puede extraer fotos de una imagen se puede extraer información de un PDF también otra cosa que yo tampoco he conseguido vale se pueden pasar de imágenes a vídeos eso lo he conseguido pero con un Chrome que sinceramente no se me había ocurrido
(33:56) nunca vale que básicamente es yo cogí una foto una foto larga le digo Oye intenta estropeármela o sea intenta partírmela intenta hacerme un Carrusel de izquierda a derecha vale Yo lo probé usando mis propios no lo conseguí luego conseguí encontré un tío que lo había conseguido y es que el prompt era ayúdame a convertirlo en un vídeo con relación aspecto 3/2 con la imagen llenando todo el vídeo el vídeo debe estar centrado en el centro de la imagen a continuación desplaza el vídeo suavemente sin saltos de la siguiente
(34:25) manera inicio centro derecha y centro izquierda centro fin utiliza la librería y majeo para ayudarte guarda los fotogramas directamente en un archivo de vídeo en lugar de una lista utiliza un paso de fotograma de 8 píxeles si es necesario recorta los bordes de la imagen para que el tamaño de la imagen sea divisible por el paso del fotograma vale Así consigues hacerte una una persona ya lo he hecho antes no entiendo cómo no se te ha ocurrido pues entonces realmente yo todas esas funcionalidades son súper potentes y yo creo que la
(34:59) parte que es aún más potente es la de convertir csv a código yo no lo he usado porque no me he encontrado con la necesidad o el caso de uso pero creo que es un pepino la verdad lo que pasa es que pienso que es un pepino en beta y y yo pienso que a día de hoy para mis usos el que más o sea el que más posibilidades tendría sería obviamente poder subir PDF y hablar con él estilo mata que a día de hoy no lo permite o sea lo permite pero no lo consigo yo por los motivos que sea pero a mí lo que me parece más interesante es
(35:38) limpiar limpiar o sea limpiar y estandarizar datos Yo pienso que allí es esa parte va a ser para mí la más potente de todas todas todas todas porque creo que uno cuando los que somos analistas y trabajamos con datos como tengas datos de muchas Fuentes es literalmente un horror o sea un horror ya solamente en contabilidad tiene en descargarte ficheros de bancos ya te das cuenta de que cada uno lo como quiere uno o sea no hay una normalización Entonces yo ese proceso de normalizar Creo que creo que para mí va a ser para mí ya me
(36:15) está ayudando Yo es ahí donde creo que va a ser más potente hago ahora hago un disclaimer ojo que Open dijo No tengo no sé si vosotros esta información pero dijo que nosotros no entrenamos el modelo con los datos que vienen De Api pero si entrenamos el modelo con los datos que vienen del chat Entonces yo no sé si vosotros habéis visto si cot intérpretes se amplía a eso pero vamos es el chat con la función de cot intérprete Entonces eso me parece que vale muy bien pero a ver qué datos le metes allí porque para limpiar y
(36:44) estandarizar yo te quiero volcar el csv completo no te quiero volcar una muestrilla que luego no sé si cumple todos los casos de normalización y demás Entonces hype por lo que puede permitir no hype por por todos los flancos que hay detrás de esto no si entrena el código lo que dicen que hacen o lo he visto y no lo permite Bueno yo estoy un poco a esperar por donde mejoran esto la casuística a la que me he enfrentado ahora que estás diciendo limpieza de datos y me ha parecido brutal mi primera sensación cuando lo vi fue un poco de
(37:29) Bueno yo ya estoy programando ya tengo una ventana de python abierta programamos bastante en python todos los días creo que no necesito que algo me ejecute código en el navegador porque lo estoy lanzando yo en local y ya tengo comunicación conté y estoy yo programando cojo el código Lo pongo aquí tal y sobre el papel dije No creo que para mí vaya a ser algo relevante Y entonces me puse a probarlo y me di cuenta de lo equivocado que estaba habéis traído casos de uso que habéis explorado por comentar algo por comentarios el mío o esperarme a que tu
(38:13) línea y opinamos sobre eso un caso súper seo de limpieza de datos y de proyección e intenté irme como a lo más genérico como si no supiese como si esto no lo hubiese hecho nunca no me fui a esas consol y me bajé de esas consol el report de del panel de rendimiento que te permite extraer de mil filas en mil filas no Bueno yo todo esto normalmente yo tengo una base de datos que se conecta a ser consultor todos los días se baja toda la información me lo guardan un my sickell y yo luego con power bi modelo los datos
(38:52) y a la base de datos de Google de productivo Y entonces mezclo la información y me generó mis das voz a partir de ahí hago cosas como calcular la el impacto económico que tendría subir una posición o no subirla dentro de todo el proyecto seo y así es como define un poco la estrategia de dónde voy Vale entonces me llevé este caso de uso precisamente a ese punto entonces pero a una forma más menos automatizada menos conectada a bases de datos algo que podría hacer yo en un momento en el que necesito hacer algo rápido y como he
(39:24) dicho arnau como esto lleva mucho tiempo de generar de limpiar muchos datos dije voy a intentar conseguir un inside un dato de la forma más rápida posible entonces me bajo de ser con Sol el ZIP entero que contiene cinco o seis tsv con miles de registros cada uno literalmente creo que son mil registros cada uno o 10.
(39:49) 000 ya no me acuerdo bueno que son consultas fechas países aparición en búsquedas dispositivos filtros páginas Vale entonces se lo pasas y empecé pidiéndole un análisis exploratorio de los datos para ver qué es lo que lo que podía conseguir encuentra los archivos descomprime el ZIP entra dentro de los tsv nos dice Qué información hay dentro Vale entonces ahí ya empecé un poco con el con el caso de uso entonces lo que le dije es Localízame Cuáles son los Plays en Google que ahora mismo tienen una posición media más bajo de lo habitual o que están por debajo del 2 del 3 es
(40:27) decir sitios que tienen una capacidad de mejora de posicionamiento orgánico también le dije que fuesen relevantes para mi proyecto No me digas long Tails no me digas nada similar Entonces el propio sistema te empieza a decir que existen formas existen metodologías para eliminar los out layers que son los elementos que que se salen de lo habitual Entonces establezco como una serie de normas y le digo Quítame toda esta paja y céntrate en cosas que de verdad son relevantes para el análisis no entonces el sistema
(40:57) me hace una lista de muy sencillita de Cuáles son las posiciones los las palabras clave que tengo en peores posiciones Dentro de este conjunto de mis normas cuando hablo de normas hablo de volumen de impresiones y demás que de cosas que considero relevantes no Entonces por ejemplo lo primero que me pareció es free tool free tool sansburgo que estamos en posición media según 7.
(41:25) 6 y luego fritura pena Atenas en español free tour Zamora free tour Atenas en inglés Vale entonces es otro ordena por la posición media en la que estás entonces aquí ya me ha hecho con dos frases me ha hecho un análisis de todo el documento me ha extraído Cuál es la información relevante me ha quitado la paja y me ha dado realmente las palabras clave que puedo mejorar y ahora digo me pongo sigo la comunicación con ello vale que esto es lo que yo suelo hacer en Power bi le digo qué significaría que salzburgo pase de posición media 7.6 a posición media 1
(41:57) que sería pues fijarla Y de forma permanente en primera posición qué ganancia de tráfico significa eso entonces aquí se por una primera parte se lo inventó me dijo Bueno podemos asumir que la primera posición tendrá un ctr promedio del 30% y le digo el 30% lo has calculado O te lo has inventado dice Bueno se ASUME que en el seo en la primera posición tiene un 30% dije no vamos a calcularlo Y entonces coge mi propia info Y entonces genera una tabla que esto estuvo súper chulo una tabla que le pedí que fuese un gráfico visual
(42:31) en el que montase en un eje en dos ejes Cuáles son los ctrs promedios para todas las primeras posiciones de Uruguay y agruparse los ctrs promedios por los casos de uso más habituales eliminando aquellos ttrs que o son muy buenos porque no existe competencia o son muy malos porque aparte de tener buenas posiciones al primero Pues hay muchos Carruseles muchos no sé qué te bajan ctr Y entonces te agrupa todos los ctrs en este caso en un conjunto en un con una especie de cluster de cuáles son los más habituales y te dice Vale pues en base a
(43:02) todo tu amalgama de datos cuando estás en primera posición tu ctr va desde esto hasta esto digo Vale pues coge coge el punto intermedio entre uno de estos y asumamos que ese es el ctr [Música] más habitual entonces establecemos este torre más habitual y ahora lo que Considero que Mola que es que digo Vale pues Ahora te coges Las mil palabras clave que tienes en el csv csv de consultas y aplicas este ctr como como porcentaje de tráfico a ganar y me haces una resta entre el tráfico que tiene actualmente los tiene actualmente y los
(43:38) clicks que consigue Digamos si aplicásemos este ctr y me lo ordenas de forma descendiente por Cuáles son las palabras que más tienen Pues todo este curro yo lo dicho yo esto lo hago de forma habitual en Power bi y montar el sistema de base de datos me costó meses en los informes de Power bi lo mismo también me costó meses Pero esto es una conversación de 20 minutos y en 20 minutos he hecho un trabajo brutal sin necesidad de poner una línea de código cuando lo más complejo muchas veces era estar esperando a que se ejecutasen todo
(44:06) esto que estaba con el móvil mirando Twitter mientras esto pasaba o sea es que me parece que es tiene un potencial increíble lo que decía al principio al principio decía Es que esto ya lo hago yo vale pero es que ahora cuando me vaya a una reunión y o estemos sacando datos en tiempo real y no sé que no sé cuántos entre decir Vale pues esto te lo doy mañana que me tengo que poner a hacer los cálculos y tal y decir vale Espérate un segundo que en dos minutos lo tenemos tal me parece que es una auténtica barbaridad Y no sé o sea este es el
(44:33) único caso que yo he tenido ahora mismo al que me he enfrentado pero me parece totalmente esclarecedor no sé qué os parece a vosotros pero me parece muy bruto a mí hay varias varias cosas de lo que has lanzado que creo que son pequeños hitos que quizá hay que remarcar que está muy interesante o sea el hecho de he subido un zip con varios documentos o sea ya no estoy subiendo un documento varios documentos y estoy cruzando información y análisis entre ellos o sea Eso me parece súper interesante luego una cosa que nos ha
(45:02) comentado pero que también se puede hacer es Oye hazme este análisis y ahora que me has limpiado el documento o ahora que me has cruzado esto esto generame un nuevo documento con esta información y ya tengo un documento de análisis ahí diferente Que Luego encima te lo puedes descargar Le puedes decir como archivo y te pone el link y tú te lo bajas y te lo miras luego en local y no pierdes esa info ese contexto a futuro exacto y luego ahí hay otro punto más que comentabas que es la resolución de los problemas yo creo que
(45:29) ese punto súper interesante o sea Al haber metido un agente que va intentando conseguir el objetivo que tú le estás metiendo va dándote soluciones en ese momento Y eso es una ventaja y una desventaja porque o sea tú te metes una vez haces un proceso y te da una solución y te mereces otra vez haces el mismo proceso y te da otra solución diferente porque las haces sobre la marcha Entonces es en consistencia en función de Qué acción puede ser un poco frustrante pero hay veces que te da soluciones que a ti no se te habrían
(45:58) ocurrido y que te pueden optimizar mucho más tu trabajo o te pueden dar otro punto de vista o esa forma de pensar fuera de la caja que lo mismo no estabas teniendo en ese momento Entonces creo que ahí hay varios puntos que son muy interesantes de todo el proceso y que denotan también todo el potencial que hay detrás de una herramienta de este tipo a mí a mí personalmente hay hay un remate que no hemos comentado que me parece muy interesante que es que tras todo ese proceso claro ha habido una conversación como decías No yo por
(46:26) ejemplo para estandarizar los datos que yo estaba en este caso probando de datos de bitquery que bien 4 yo estuve teniendo una conversación con él Yo creo que el remate final es decirle contras todo lo que hemos hablado y pronto inicial que yo te pasé hazme el prompt que habiendo yo habiéndote yo dicho solamente eso hubiéramos llegado a esa conclusión y yo creo que eso es súper potente porque eso ya se convierte en tu repositorio interno de broms Claro que llega de ave quitándote todo ese tiempo y es verdad Víctor ahora o sea ahora
(46:56) manualmente tiene que Descargar sus archivos y subiéndolos al mywell y llevándolo a otro sitio lo tiene ahora pasa que manualmente tiene que descargarse el ZIP pero ya y tiene que subir al intérprete no pero claro es que la ganancia es que es brutal es Entonces yo pienso que a un poco como yo lo estoy viendo que es lo que más o la cabeza es Oye pues ir convirtiéndome en ese repositorio personal de datos yo por ejemplo No yo Un ejemplo muy tontorrón pero yo yo hago mi propia contabilidad la mía personal y de mi familia No pues yo personalmente
(47:27) cuando me descargo las cosas de los bancos de las inversiones y todo eso es un jaleo o sea normalizarlo tremendo incluso cuando hago la puntada de cada de cada de cada cosa Hay muchas cosas que se repiten sabes si yo soy capaz de montarme todo ese ese Chrome donde ya realmente le digo Oye mira esta es la referencia incluso montar un sub zip o sea Perdón un súper elemento dentro de ese zip que sea la clasificación de información o sea te da un juego tremendo y al final tú puedes terminar montándote tu Pro tu zip que tiene los datos crudos de
(48:03) trabajo y los y el csv de árbol o de esquema de datos o de lo que sea que te sirva no porque a día de hoy por ejemplo es un poco lo que estoy trasteando con la parte de bicuertery a día de hoy sigue haciéndolo mal pasando consultas sql cuando realmente no se da cuenta que hay hay elementos anidados dentro de partes hay particiones de datos entonces claro la lógica que yo percibo es el prompt de refinado pero que en ese zip no solamente haya datos crudos sino que también haya referencias sobre las que pueda trabajar Yo pienso que eso es nos
(48:37) permite trabajar con árboles de arquitectura a nivel deseo nos permite trabajar o sea con un montón de cosas que puede referenciar para llevarlo al otro sitio Entonces yo pienso que eso es una cosa también súper súper potente hay un hay una cosa que no hemos comentado y me ha venido ahora a la cabeza con lo de con lo de clot el tema que has comentado antes tú arnau de las de las sugerencias esto también cuando cuando nos liamos a analizar datos hay veces que tienes parálisis por análisis que estás analizando y tienes un montón
(49:06) de información y dices ostras Estoy saturado Pues también Es una herramienta de desbloqueo O sea tú le das vamos a leer estos documentos Qué información interesante podemos extraer de aquí y te va a dar recomendaciones de análisis que puedes hacer entonces también para ese tipo de cosas que siempre decimos Oye para darte sugerencias de ideas formas yo que sé nombres temas de diferentes acciones que puedes hacer Pues aquí igual nos puede dar diferentes recursos de análisis que lo mismo no nos habíamos planteado y igual
(49:35) que nos da diferentes soluciones de código nos da diferentes formas de afrontar un análisis de datos entonces creo que ese punto también es muy interesante vosotros sabéis si realmente Hay algún riesgo en cuanto al tema de rgp o sea porque yo pienso que está aquí estamos hablando y lo hemos hecho un poco caso omiso a mi comentario pero claro para que eso te sea útil o sea realmente es que se le está subiendo datos sabes es decir por ejemplo No yo pensaba hace ya un tiempo con un cliente de social web lo que hicimos fue
(50:04) modelarle el para conectar por ejemplo el crm que tenían ellos con con a nivel de leads lo que hacíamos era enviábamos el ID de sesión de Gea 4 no Bueno entonces claro qué pasaba que esa información al tenerla con él con el evento del lead nosotros en zoho podríamos Descargar podíamos unificarlo y ver el tráfico cuánto terminaba en venta no es decir no solamente lo típico de ahora que son herramientas de leads si no hay mirada aquí podemos llevarlo a este este en canal orgánico entrar a un 200 se cualificaron 40 en Pay entraron
(50:38) mil Pero esto se cualificó uno no pues esa información que ahora es súper fácil O sea si tienes el nexo es subir dos tips o sea dos csv es súper fácil de hacer hasta ahora no podía riesgo Claro está subiendo información de negocios que ya no estamos hablando de meterle un código de no le quito y no le quito el riesgo al código de subir código de como lo que decía Samsung que comentábamos pero [ __ ] es que nos vamos a enfrentar ya os Digo por si lo sabéis porque es que pienso que es un todo o nada para un montón de negocios que realmente la
(51:10) privacidad Yo pienso que es una cosa relevante Y es que estamos hablando de lo más sensible que podamos tener que son datos o sea son datos de negocio específicos no sé me parece como muy muy fuerte la verdad no sé si vosotros sabéis si se puede si hay algún riesgo en cuanto a O sea si entrena el modelo si le sirve de algo de esos datos Sí que bueno lo primero Open hay fue baneado en Italia por no cumplir la rgpt y le liberaron el baneo En aquel momento porque en teoría empezaron a aplicar una serie de cambios que sí que lo hacían
(51:43) eso lo primero que en teoría ahora mismo es complian y lo segundo es que en opening si tú te metes en la parte de settings en Data Controls hay una opción que es la de no permitir se llama chat history and training que en el mismo check tú haces que el modelo no permita almacenar la información de tus conversaciones y No utilice esas conversaciones para improve Our models o sea como para entrenar Más allá de que lo hagan de que no lo hagan o sea es difícil saberlo no pero bueno yo tengo esas esas dos esos dos
(52:19) insights de que a día de desconme y tienen una opción para eliminar el entrenamiento de datos en base a simplemente un check de una configuración entonces para los datos así más más delicados posiblemente sí que estén protegidos no sé a mí desde luego no me genera mucha confianza cuando las empresas ya están diciendo a sus trabajadores que no lo usen con sus datos propios ya si partimos de la base de este tipo de afirmaciones y que luego que las grandes empresas les estén dando modelos o accesos en sandbox Bueno aquí
(52:58) algo de información lo mismo no te cogen cierta información que sea delicada de sexo de yo que sé de lo que sea no de información médica o cosas así que pueda ser más más arriesgada pero yo me fiaría poco de que los datos no los vayan a usar que lo mismo no lo usan para entrenar pero lo usan para otra cosa Sabes que la gente va a subir De Api la gente va a subir datos de lo que decía El ejemplo este mismo que es un ejemplo muy útil para mí o sea ver cuánto Ver cómo cualifica un canal sabes que es cruzar datos de tu presta o de tu o de
(53:35) tus ojos o de tu hubspot y los datos de GTA 4 por ejemplo es una cosa súper tontorrona muy fácil de hacer ahora y antes tenía su ingeniería montarlo sabes pero es que vas a subir datos directamente el formulario de Víctor arroba social web sabes O sea que esos datos de nivel de sensibilidad alto ya no es un nivel de de bueno eso lo típico Oye pues goodwalker en logroño no posiciona bien bueno ser sensibles Pero bueno que eso es crapeando resultados lo puedo ver sabes pero es que el otro me parece hay otros datos mucho más privados que
(54:10) son son preocupantes a nivel De Api sí que está el formulario este famoso de hacer optin o no de permitir o no permitir que eso en teoría sí que hayan dicho que sí que se fijan bastante en eso y que están súper concienciados y lo tienen la política de privacidad y tal Ya que lo hagan lo de siempre no tal pero en teoría Tú sí que puedes decir que los datos que reciben desde tu Api no los utilicen para para es al contrario al principio hasta la liberación de gpt 4 en la Api utilizaban todas las llamadas para entrenar los
(54:42) modelos Y a partir de ese momento se te han por defecto que no se utilice esa información y tú puedes solicitar y tú puedes decir Bueno pues que utilicen la mía y lo que puedes hacer es ha pasado decir Oye utilizas tu información en el pasado extrae la de aquí o sea sácala de aquí tiene mucha potencia a nivel De Api no sé a nivel de interfaz yo creo que yo creo que una de las mejores cosas que hemos comentado hoy es lo de poderlo guardar como un zip Porque pienso que eso te da mucho o sea yo a mí no se me había ocurrido Esa esa opción y pienso
(55:19) que la diferencia es que es que es enorme sabes o sea porque de un documento que tenga este agrupando o cargarlo todo a lo bestia o sea aprender por un lado no hacer como tu propio trabajo Es decir primero Voy subiendo csv a csv para que el poderlo trabajar y luego yo cuando lo suba un zip Ya tengo los pedazos de pront que necesito para que todo ole aunque si lo sumo toda lo bestia Pues no sé si eso lo va a [ __ ] bien o no O por lo menos si tiene un nivel de refinamiento muy alto pero pero lo otro me parece súper interesante
(55:47) realmente que pueda subir un zip porque digo es que eso te da mucho juego datos esquemas de datos es que lo bueno que es lo que ha dicho Álvaro que me parece un detalle muy importante que cuando hablas de de intérprete al Gran porcentaje de gente que lo verá y dirá Ah qué chulo con intérprete hay que hay que interpretarlo como un VPN un vps que está está en la nube tú tienes un pequeño espacio de un servidor y tienes espacio de computación y de almacenamiento Entonces es temporal es lo que ha dicho Álvaro se te cierra el x
(56:25) tiempo y dejas de poder utilizarlo pero durante esa ventana de que tú estás utilizando lo puedes almacenar lo que quieres ahí Imagino que tendrá sus limitaciones de espacio y todo el rollo pero al final si tú subes un zip Y a lo largo de la conversación le dices ahora descomprimes y este archivo lo partes en tres y ese tal No es no está pasando a nivel contextual no está pasando en su en su capacidad de ventana de contexto que está entendiendo los datos y él en esa conversación está separando sino que físicamente entre comillas está
(56:55) dividiendo esos archivos como tú solo estás diciendo y están existiendo en esa en ese en ese vps y lo mismo si tú ahora mismo le pides un código de generarse miles de archivos de forma automática y te generase un zip pues salvo que haya limitaciones de computación y todo eso lo podría hacer entonces es que es como tener un vps en la nube asistido con sus limitaciones de que no tiene internet que por cierto hemos dicho algo muy importante que bueno ya se han saltado y todo el rollo pero uno de los motivos principales por los que no tiene
(57:26) internet es primero imaginaros un qué opináis sea capaz de que nosotros seamos capaz de ejecutar desde opening llamadas a internet con esta potencia para hacer lo que nos dé la gana lo cual sería abrumador Pero luego imaginaros que pasa mucho que instales que lo que también lo comentó Álvaro esa noticia que instales un paquete malicioso porque te ha dado una información errónea y entonces metas dentro de tu código de python un paquete que te has descargado de un repositorio no validado y por lo tanto te esté alterando los datos robando
(58:00) Triunfo almacenando de cualquier forma tal entonces lo que han hecho es como una especie de vps súper estanco para intentar protegerse lo máximo posible no pero vamos o sea hay que hay que asumir que es eso hay que asumir que es un vps en el que tienes un intérprete de python y no tiene conexión a internet tú tienes una ventana de conexión con él y es un asistente de eso y tiene su almacenamiento físico su tal y lo mismo que podrías hacer allí de forma manual y calentando ante la cabeza lo puedes hacer Aquí súper sencillo yo
(58:34) os lanzo os lanzo una pregunta que yo me lo está preguntando desde desde el principio creéis que es el mismo modelo que gt4 yo he dudado eh yo he dudado sobre todo por por el contexto porque claro aquí pasan cosas cuando tú inicias una conversación sabes que tienes 4.000 tokens 8.000 tokens de conversación lo cual conforme la conversación va avanzando Esa esa ventana va cambiando y los datos son diferentes No aquí como tienes un anclaje a la a la realidad al punto de conversación siempre tienes esos datos a mí me ha generado mucho mucha mucha
(59:11) confusión Porque mucha confusión en cuanto no sé cómo está funcionando no que no no me haya servido que al contrario me ha servido una barbaridad porque la conversación era muy larga además cada explicación era Era enorme con mucho tal y siempre tenía el contexto siempre sabía lo que estaba haciendo no me pasaba lo de antes de tal entonces no sé si es que estamos probando como el gpt 4 de 32k que nos han dado un contexto enorme O es que como tiene ese anclaje los datos en tiempo real cada vez que pierde el contexto como sigue teniendo acceso al
(59:41) dato sigue siendo capaz de recuperar de lo que te está hablando y entonces es capaz de mantener el contexto de una mejor manera pero yo creo que los razonamientos que ha hecho en esta prueba que yo he hecho con gpt 4 pegando los datos incluso reduciéndolos no teniendo mil líneas de palabras clave metiéndole 10 no habría sido capaz de mantener una conversación tan larga solo con con esa info creo que algo Hay no es el qué Pero creo que es mejor que gpt 4 yo yo mientras hablabais pensaba o sea ahora creéis que quizá sería las
(1:00:18) ventanas de contexto se solucionarían pudiendo referenciar la la el punto de la conversación donde se menciona eso o en su defecto la versión inicial no sé es decir que al final decías mantiene mucho la conversación y yo pensaba como cuando estamos conversando no es verdad que yo mantengo un contexto pero también me hilo a un punto de la conversación sobre la que estoy hablando y eso es mucho más fácil no entiendo de no no no utilizan tácticas técnicas para eso o sea porque el propio lanchain que lo comentó una persona con la que hablamos
(1:00:54) hace poco que la audiencia todavía no sabe el propio lanchin tiene diferentes formas de almacenar información en base a Te guardas el principio y Te guardas el final Te guardas los últimos cinco mensajes Te guardas tal Y entonces si lanchin ha hecho eso pues entendemos que gpt que es mucho más avanzado pues llevan tiempo trabajándolo Entonces si tienen diversas formas de almacenar el contexto de la conversación o sea esa es que sí siguiendo un poco o sea todo lo que venimos comentando quizá con intérprete es un sub punto más de la
(1:01:26) amalgama de GTA 4 no y de ese de ese de esa amalgama de 8 modelos quizás uno particular que tiene prioridad sabes y en cuanto a conversación resulta que es que lo que hablamos como gpt 4 que es la amalgama de ocho cosas pues quizás solo la que hace referencia a texto es una específica pues es el Da Vinci 004 me lo estoy inventando entonces Y es el que tiene prioridad Entonces nosotros hablamos de si es lo mismo o no pero es que realmente lo mismo no puede ser porque quizás el gbt 4 no tiene anexado este este nuevo modelo en cuanto a
(1:01:56) computación pero si el este tiene el apoyo textual de digo porque quizá es más puede ser porque también los códigos que genera lo genera mucha más velocidad fallan mucho menos que esa también es muy relevante porque yo lo he contado muchas veces no que yo para conseguir una conversación fluida con gpt mientras estoy programando los proms son así son te paso de ejemplo Te paso el cuerpo te paso como quiero que me des el formato Y entonces lo hace bien aquí es todo lo contrario aquí es en dos frases me genera todo un análisis de datos súper
(1:02:29) complejo es capaz de extraer datos marginales centrarse en los importantes Entonces está fine tuneado este entrenado para ser un codo intérprete bien hecho puede ser el módulo número 8 de gpt que está centrado en la computación en desarrollo y no sé qué que lo han extraído y lo han puesto aquí directamente a trabajar puede ser así a mí el único detalle va a llegar ahí sí Perdón quería Quería llegar a ese punto también que es como como un modelo más más fino en la parte de código y lo ves No o sea el mero hecho de que bueno de que vaya tiran y
(1:03:08) tirando sobre sus problemas tú cuando te enfrentas con el código seguramente yeras muchas más veces y dándole mucho más contexto aquí es como que itera menos y que te suele dar soluciones mejores a la primera y luego razonamientos más adecuados el otro Quizá no te razona o no te da diferentes soluciones entonces bueno mi pregunta iba un poco por eso yo tenía la misma la misma sensación a mí no el único tema que a mí me pasó fue que haciendo pruebas con el tema de los pdfs vale de a ver si era capaz de que me leyera un
(1:03:39) PDF me me dijo Ah para hacer esto voy a voy a usar este código no y lo que al final me dio era una librería que estaba depredada entonces Eso me parece un poco raro la verdad O sea digo no fue el Panda fue el PDF tú no sé qué hoy o sea una librería de estas que ya no está de precada entonces me eso me hizo vamos respeto al contexto de la conversación me hizo pensar un poco si qué punto en cuanto sí por programa mejor pero las librerías que tiene no están actualizadas Y es quizá un modelo anterior en cuanto en cuanto a eso no
(1:04:12) creo que sea eso porque al final seguramente como lo han hecho ellos lo que tienes una imagen de una de un sistema operativo y lo que hacen es que cuando tú inicias la conversación te levanta una imagen de ese sistema operativo una instancia de esa imagen no entonces seguramente por esto ya son cábalas y no se convierte en un bar con tres cuñados porque casa y mañana pero si no seguramente lo que pasa es que ellos están intentando de alguna forma tener ese entorno controlado que les hubiese gustado tener y Álvaro ya ha dicho que
(1:04:44) no tienen porque todo el mundo lo ha explotado ya pero al final han limitado la cantidad de paquetes que pueden utilizar porque paquetes que ellos conocen y su equipo de en este caso ingenieros o de ciberseguridad que seguro que también tienen Peña han dicho utilizamos estos paquetes Porque estos paquetes no son explotables bueno Álvaro ya nos ha dicho que ya hay gente que lo ha dicho pero el hecho de que estén utilizando una librería de precada Yo no creo que sea una cuestión de los datos de entrenamiento que tenga gpt 4 o de
(1:05:13) ese corte de 2021 sino que han seleccionado uno de los válidos disponibles dentro de la imagen que están utilizando entonces creo que eso es tan fácil como que vayan pasando las semanas y vayan actualizando esa imagen y vayan metiendo los paquetes que van liberando que van checando que son seguros para su sistema y cada vez esa imagen esa capacidad de herramientas que tendremos será mucho más potente y no necesita utilizar Inteligencia artificial para eso simplemente es una cuestión de ir validando paquetes e ir
(1:05:41) metiéndolos ahí y dejandolos disponibles no entonces por eso también le veo un potencial enorme porque esto el escalado es inmenso la Inteligencia artificial ya funciona muy lo que no funciona ahora Muy bien Es la virtualización que es algo que lleva entre nosotros un montón de tiempo y que en cuanto al ajusten será será una pasada no entonces aquí creo que lo importante es eso separar las dos tecnologías y sobre todo ver cómo está funcionando en este caso el modelo generativo de código que me parece una burrada yo yo única propuesta última que
(1:06:11) no les costaría mucho es que por defecto cuando tú abras la cuenta te mantenga la conversación del último del último modelo que elegiste lo de que cada vez tengáis que darle click de 3.5 a 4 o a cada intérprete es como tíos de verdad O sea que naciste famosos por la ux que tenía el proyecto en cuanto a hacer un chat es mortal que cada vez tengas que hacer tres clics de gpt 4 abro aquí le doy al intérprete adiós eso bolífero o sea pienso contratar a alguien para hacer la ux Y esa personería que está en el equipo
(1:06:47) y han dejado vacío el puesto también te lo digo y hay una una cosa que está aquí que creo que es interesante comentar que es han aterrizado un concepto técnico para un público que quizá lo puede usar sin ser técnico que creo que está muy bien el hecho de ocultar el código que tú si no abres el desplegable Como pasan los plugins no tienes ni por qué saber qué hay detrás no es como yo puedo [ __ ] un coche pero no tengo por qué saber la mecánica cómo funciona y me vale para llegar al punto AB y ya está y está bien
(1:07:18) no entonces creo que esa parte es es muy correcta pero creo que si realmente tienes esos conocimientos técnicos aprovechas mucho más O sea la gente que quizás estamos más acostumbrada a estar programando con gpt o con Ian en general creo que aprovechas mucho más las acciones que puedes hacer porque sabes que para generar un código de programación te voy a tener que detallar paso a paso cada una de las acciones no lo que decía arnau de tener un prom de kilométrico Pues es que cuando ya programas tienes proms porque le dices
(1:07:53) Oye hazme esta acción divídemela en estos pasos Pon más atención en este análisis específico usa estas librerías de aquí Haz no sé qué entonces si lo usas como como lo estabas usando O sea si programas con ello y usas la forma en la que estabas programando para comunicarte con con el código intérprete creo que los resultados son como como le gusta decir arnau el cambio es cuántico no O sea se nota muchísimo la diferencia y cosas tan básicas como Oye lee un PDF o no escribe un código que coja este documento de PDF use 1 CR para tal sabes
(1:08:32) que le expliques las tripas de cómo se hace ese proceso quizá la diferencia entre que lo haga bien de que lo haga mal es que le expliques exactamente lo que tiene que hacer y eso se nota se nota muchísimo y cambia totalmente el resultado totalmente Yo todavía no no lo he probado para los códigos que genera integrarlos dentro de un código más grande de una aplicación más grande no tengo Claro que ese caso de uso vaya a funcionar Creo que es más a nivel conversacional para hacer scripts o algo así pero es algo que a lo que me
(1:09:05) gustaría enfrentarme dentro de poco esta semana no voy a programar nada porque no vivo vacaciones la semana que viene y tengo que cerrar muchas cosas pero en cuanto vuelvas y que me quiero poner con eso porque podría ser otro gran empujón en muchas otras cosas entonces bueno nuestro punto de vista que comentaremos en el podcast a futuro y hay una cosa que no hemos comentado que no lo he probado pero que puede ser interesante que es hemos dicho de Oye zipear diferentes documentos de datos pero realmente ahí podríamos tipear lo que
(1:09:36) nos dé la gana o sea Tú metes en un vídeo una imagen un paquete que quieras instalar O sea hay un vídeo el saco este que se ha hablado Antes había hecho un reconocimiento de vídeo que le seguía la cara con el código intérprete y en tiempo real se lo estaba ejecutando ahí O sea que realmente le puedes meter tal cantidad de de documentos diferentes que las posibilidades son es que sí Yo es que a mí es que cuando me está explotando la cabeza con eso porque yo una cosa que quería hacer es que hablamos fuera de micro con
(1:10:10) Álvaro el tema de [ __ ] con lanchain poder tener tus agentes no un agente que que sepa algo sobre una documentación claro yo pensaba [ __ ] yo cojo ahora mismo por ejemplo por ejemplo el tema de bi cuerino me descargo toda toda la documentación la pasa un zip sabes y luego por otro lado le meto la tabla de datos porque al final a día de hoy es que no programa bien Por ejemplo Y eso es un caso que yo estoy trabajando para intentar resolver Claro si tú le pasas en un cit documentación sería tu agente en cuanto
(1:10:41) a la parte informativa y luego tienes la parte de los datos Me parece que o sea no sé hasta dónde es capaz de llegar eso Pero sinceramente agilizaría mucho porque cada vez es el esquema de datos es el esquema de datos no hace ni ponértelo tampoco porque me subo la documentación o todo lo del ancho y no Víctor que tú estás más en eso te subo todo a pelo toda la documentación los githubs también a cascoporro sabes y ahora quiero que me programes esto adaptado para este csv por ejemplo no digo me parece que es si
(1:11:09) funcionase sería tremendo que pudiera subir zipsa cascoporro con documentación y tú simplemente decirle cuándo ir a qué sitio no pero es que me parecería que es que es un pseudo agente del Ángel brutal claro el tema es ese que yo creo que es como muy ahora mismo es muy hilo es muy que es difícil de conectar de extraer de extrapolar a algo transversal a un día entero No si al final va a tener un hilo de conversación que es un caso de uso y no un caso en vuestro caso que tenéis muchísimos clientes pues es un caso de
(1:11:43) uso en concreto de un cliente por tanto si eso lo expones a todo al final tiene muchos casos de uso de muchos clientes diferentes tienen muchas conversaciones y no se relacionan entre sí no es como una capacidad de extraerlo de ahí para unificarlo todo en un mismo sitio y poder visualizar de otra forma pero sin estructura yo pienso que lo interesante es que tú sepas que tú sepas a nivel de y a nivel de archivos lo que es una estructura por ejemplo los descargables de seres con sol siempre van a ser los mismos y sabes que en vez
(1:12:11) de hablarle de algo específico háblalo por referencia de nombre de columna por ejemplo no entonces Claro si tú eres capaz de referenciarlo a eso y luego le pasas un csv particular de cada cliente ahí tú ya es cuando te abres tuning en tu Cut intérprete le dices Mira en este caso particular en la tabla que en la tabla de seconsul punto csv coge esto y ahora machéalo con esto En vez de digo que quizá el propio como soy súper de acuerdo es un hilo Y quizá en ese hilo Tú mismo eres capaz de decirle primero led esta documentación y memoriza la dos
(1:12:43) de intenta ahora con lo que has memorizado generar un csv de esquema de datos 3 con ese esquema de datos ahora intenta ir al documento datos Row punto csv intenta normalizarlo para poder hacer o sea no sé yo no lo he probado Pero eso sería un platino si al final lo que estamos hablando es que si existiese como una especie de almacenamiento en la nube compartido para todas las ventanas de conversación tú tuvieses como interfaz gráfica rollo Google Drive o cualquiera de estos sería como muy bestia no en plan Tú metes toda
(1:13:17) la info ahí de tus clientes de no sé qué Y entonces tú puedes desde cualquier punto puedes modificar esa información puedes volver a consultarla puedes estar Entonces eso sí que es transversal absolutamente todo No es no es así como súper compartimentado de lo que es ahora no creo que sea complicado que lleguemos a ese punto porque al final simplemente es como que levante un poco el pie del freno que quite la invitaciones y listo Bueno vamos con las flipadas flipadas Bueno creo que el tema del día de hoy nos nos ha gustado a todos me parece muy
(1:13:50) interesante que siempre decimos el podcast siendo egoístas pasamos por nosotros pero creo que justamente en estos puntos nosotros mismos aprendemos muchísimo de nosotros mismos flicada flipada flicadas vamos con ellas Álvaro que tienes esta semana Vale pues nada ha ido un poco en la línea de clot de ir probando a ver qué posibilidades tenía y que opciones daba entonces bueno está jugando un poco con ello vale como os he comentado antes una de las opciones que permite ahora es subir archivos vale archivos de hasta 10
(1:14:26) megas cada uno o sea puedes subir varios archivos y permite pdfs txt csv Así que después de esta conversación arno que te he visto que con los pdfs no no acabas de sacar partido con con clot los PDF van bastante bien vale porque como no sé internamente no sé cómo funciona evidentemente porque no te sale el desglose de la llamada al código que está haciendo Entonces aquí sí que lee el contenido de una forma relativamente correcta si el PDF la información está bien bien puesta funciona bastante bien qué más tampoco internet en este caso no
(1:15:02) se pueden Subir imágenes a diferencia del codo intérprete Vale que eso es interesante también y una de las cosas que estuve probando es tema de generación de código con clock Y la verdad es que los resultados que han dado para mí están bastante bien o sea los casos de uso que yo tengo que suele ser programar en python temas de seo principalmente o temas de analítica o cruces de datos Y tal la verdad es que está bastante bien el código que generaba y código en diferentes lenguajes y sin ningún problema de pasar
(1:15:32) de uno a otro o sea le pedí un desarrollo que había hecho Yo anteriormente para para no sé Qué generó todo el código y le dije vale me lo pasas a javascript y lo paso a javascript como si nada vale entonces bastante bien La parte de generación de código creo que podía estar perfectamente al Si no al nivel de gpt 4 le faltará poco o sea está bastante bastante bien al principio os comenté el tema de las matemáticas de que decían que habían invertido en mejorar sus cálculos matemáticos y tal aquí ya no me parece tan tan potente o
(1:16:06) sea le pasé un problema matemático bastante básico que eran bueno Eran cuatro sumas con lo típico de esto de secuencia de números Cuál va a ser la siguiente secuencia vale Y le dije Oye pues uno más cuatro es cinco dos más cinco es 12 no sé qué Hazme la secuencia y me hizo la suma del último y era como vale para eso se lo doy a mi hijo de 2 años y me va a dar una solución bastante parecida a la tuya y nada por lo demás ya os digo creo que es que es un recurso que está muy bien que se ha quedado al camino del codo
(1:16:41) intérprete porque entiendo que cada uno estaba haciendo su parte y Quizá es bastante más mainstream este esta resolución de de la problemática y pero en general me ha gustado mucho aparte de generación de texto está está muy bien la parte eso de generación de código está muy bien y trabajo con documentos que ya antes lo había usado y había dado resultados bastante buenos creo que es que es muy recomendable Así que si queréis trastearlo la verdad es que merece la pena porque ya os Digo el friqueado que ha hecho que ha hecho esta
(1:17:16) semana ha merecido para mí ha merecido la pena y ha sido de esos de Oye no he estado simplemente revisando cosas sino hay algo que lo pueda aterrizar y puedo y Puedo usarlo en mi día a día en función del caso de uso la mía me parece literalmente de las mejores que he traído en en mucho tiempo si quizá porque me toca por trabajo pero pero es que me encanta yo ya la he publicado la publiqué en redes a principios de semana es un proyecto que ha salido hace poco que se llama attention inside que básicamente lo que
(1:17:48) lo que te permite es dada una imagen y ahora abro paréntesis la parte más espectacular dado un frame de figma te permite analizar Cómo se vería es cómo se vería en un estudio de hay tracking o sea de estudio de tracking de ojos ojo de ojos ojo de ojos un poco la locura pero es que es muy diferente a los mapas de calor que es que eso es lo que hasta ahora venimos acostumbrados o sea realmente los los estudios de movimiento ocular realmente estaban muy muy muy muy muy muy muy muy muy limitados costaban un bastón y ahora
(1:18:29) había el chico este el de local Ghost que había hecho un ejemplo con gpt 4 y una versión de Toby que Pero bueno aún así hay que programar costaba como unos 500 dólares o sea muy difícil pero es que esto es un pepino o sea porque realmente lo que han hecho es han cogido 70.000 imágenes de o sea Data sets digamos de imágenes de estudios de itracking entonces lo que hace es básicamente han hecho obviamente entrenamiento de ese modelo y luego lo han lo disparan contra contra tu imagen digamos no entonces en datos de datos
(1:19:04) simplemente los que venden Pues básicamente tienen una cura así O sea una un nivel Sí y un nivel de robusta de resultados del 90 al 96% claro preguntaban por Twitter [ __ ] siento Cómo creo que quedan 175 créditos 175 euros 165 créditos o un euro un crédito Es que es que es una locura es que está tirado o sea realmente en cuanto a hacer modelos porque claro cuando nosotros hacemos análisis Estamos tan acostumbrados a los mapas de calor a los al ratón moviéndose que no que incluso cuando yo vi los resultados que me
(1:19:43) dieron mis test de enfigma no sabía interpretar eso yo le decía pero cómo va a mostrar tanta calor en este título Claro porque es que es un estudio del ojo que es que de verdad es un salto cuántico para los que trabajamos en tema de diseño y de CR o porque lo que estamos acostumbrados es a lo que permite el ratón que eso es nada nada nada que ver con la realidad entonces para mí y ahora es un poco el detalle porque justamente en la web de atención inside hay una parte que es muy interesante yo sé porque la heurística me lo dice que
(1:20:11) si pongo una imagen con un tío mirándome y un título grande y un cta debajo Yo sé que la cara se va a ver Sé que el título se va a ver y sé que el otro se va a ver hasta ahí No hay nada nuevo vale Pero hay un ejemplo que poner es que me parece muy interesante que es el tema de Un diseño de de comprimidos farmacéuticos entonces claro obviamente se ve el título grande y eso Es evidente que va a captar atención pero luego en el diseño hay debajo en la zona lateral derecha una parte que pone relax Eso sí me parece espectacular porque realmente
(1:20:41) es una pieza de información que capta información o sea que capta la atención visual un tiempo lo suficiente para transmitir algo asociado al comprimido Y eso sí me parece brutal Entonces no es tanto que yo diseñe para saber dónde va el ojo porque en parte ya lo sé no sin ser presuntuoso y sin que realmente quede por encima el probarlo con los usuarios o sea detectarlo en tiempo real pero lo que me parece interesante son casos de uso donde tú quieras transmitir una información no Es evidente que vaya a llegar a verse y realmente esos
(1:21:12) estudios te permitan hacerlo porque lo otro es que no te vas Aunque la gente decía luego pero no está de más yo mismo lo decía eh que lo probemos con los usuarios Claro pero si no tienes herramientas que [ __ ] vas a probar sabes entonces bueno para mí es un pepino absoluto el el la aplicación y me parece que está tirada de precio o sea ahí la dejáis la dejamos en las notas atención inside dos cosas es lo primero cuando vi tu publicación se lo pasé a mis compañeros de producto y ya lo están probando con los más de Uruguay y los resultados
(1:21:46) molan un montón y lo segundo es una pequeña reflexión sobre sobre esto no al final fíjate el producto lo potente que es y lo chorra que es a la vez han entrenado un Data set con imágenes de estudios de estudios de itracking y han sacado un modelo que es capaz en base a una imagen que tú le das generarlo es decir no estamos hablando de que haya llegado una nueva Revolución que ha conseguido figma no sé qué al contrario Sigma se ha subido a la ola del hyde de la Inteligencia artificial ha utilizado cosas súper tradicionales dentro del
(1:22:22) mundo de Inteligencia artificial que llevan años funcionando y gracias a esta ola han introducido en su modelo una herramienta súper potente que la Podrían haber introducido hace tres años seguramente pero como no había este hype no le habrán dedicado el tiempo suficiente para estudiar los recursos para que equipo de desarrollo se Centre en explorar cosas con Inteligencia artificial y no han llegado a ese punto o sea Creo que este esta este está avance tecnológico no es innovador lo que pasa es que es es movido por el hype
(1:22:50) y genera un producto que es brutal y que es también otro de estos que puede cambiar el panorama de la noche a la mañana entonces simplemente eso no Resaltar el hecho en el que que todas las empresas se sumen a este carro hace que los productos mejoren a tal nivel que al final los que trabajamos con estos productos seamos capaces de producir mucho más y mejor O sea que Bueno me parece me parece una brutal una brutada no pasada vale Y con la mía es un es una cosa un poco rara pero pero que tiene sentido se llama panokio
(1:23:30) No lo he visto por ahí muy muy distribuido pero este chico es un chico en Twitter que se llama cocktail yo hablé con él un par de veces en febrero creo cuando se filtró llama el modelo de meta porque este chico fue una de las primeras personas que empezó a intentar portar Llama a ordenadores personales y había gente haciendo esto de meterlo en raspberrys y cosas así un poco extrañas y este chico lo que hizo fue crear un instalador muy sencillo para que tú te instalases en tu local en tu Windows en tu Linux una versión de llama para que se pudiese
(1:24:14) correr en local con simplemente un doble clic un exe y se te instalaba no cuando todo el resto Pues eran cosas súper tenía que entrar a los modelos no sé qué no sé cuánto entonces este chico ha seguido por esa línea de pensamiento de intentar hacer de productos complejos e instalaciones sencillas entonces lo que ha sacado ahora que lo sacó esto es de hace dos días que no ha tenido mucha repercusión o sea su tweet tiene 20.
(1:24:39) 000 reproducciones y el repositorio de github que viene asociado tenía como 150 estrellas o algo así que eso es nada relativamente ha hecho un producto que es el panoquio este que os digo que al final es Es como una especie de agregador de modelos de Inteligencia artificial Open source con instalaciones de clic muy sencillos hace unas semanas hablaba traía este producto faraday que era precisamente esto pero de modelos de lm de generadores de textos pues para no que lo que es es un agregador de todo lo que este chico va añadiendo entonces por
(1:25:16) ejemplo ha hecho que puedas instalarte stable difusión en local con interfaz web con un simple botón de Descargar instalar y se te Descarga todo a la vez se te levanta el servidor Y entonces ya puedes empezar a trabajar con este buil difusión entonces creo que está muy chulo para todas esas personas que que no son no están muy muy conectadas con el tema de la consola de instalar paquetes de no sé que no cuantos Pues con cuatro clics puedes empezar a probar cualquier cosa y bueno no es solo esto para no quiero como que está haciendo
(1:25:46) que sea muy fácil la conexión entre modelos modificarlos y todo esto pero sobre todo lo que me gustaría destacar es eso no que cualquier persona puede instalarse por ejemplo eso está igual difusión Pero hay más con un con un simple clic y empezar a generar imágenes en local de forma muy muy sencilla no así que por ahí quedaría claro listo no episodio 10 que quede claro que quizá este no que quizá este tío era el Antiguo desarrollador de ux de Open hay porque el nombre que ha elegido hostiar cuando lo has dicho que
(1:26:20) ha costado ponerse serios la verdad tú te metes en su Twitter y el chico se ve que no es un chico habitual o sea es el el su imagen de perfil es perturbadora su fondo de Twitter Son un montón de cacahuetes es pero bueno pero tiene pinta de Genio de Genio incomprendido las noticias que nos trae Víctor cada semanita esto que buscaron el Inframundo de Twitter Sí además el chico tiene 4.
(1:26:56) 000 seguidores es como súper ahí bueno a 4000 ya son no pero que no es así la persona más famosa del mundo por lo que sea bueno pues terminaba esta semana nos acercamos al récord yo creo que lo superaremos incluso con la despedida Álvaro arnau Muchas gracias una semana más una semana muy intensa la audiencia no la sabe Pero esta semana hemos hecho extra de podcast y hemos estado pues preparando cosas muy chulas para lo que viene la siguiente semanas que os recomendamos que escuchéis dejadnos por favor vuestros comentarios
(1:27:29) en las plataformas de podcast que escuches habitualmente tanto reseñas como comentarios que nos ayudan a mejorar y a ganar más audiencia a llegar a más gente y nada más poco más Muchas gracias chicos por haber venido una semanita más Muchas gracias Víctor un abrazo aquí a todos los incomprendidos con fondos de cacahuetes y sus amigos que siempre serán Bienvenidos en el test de turing Muchas gracias Nos vemos la semana que viene hasta luego [Música]
Cómo activar el complemento del intérprete de código de ChatGPT
Para acceder a las funciones Code Interpreter, asegúrate de que eres suscriptor de ChatGPT Plus.
Y tener activo el pago mensual de 20 dólares.
De lo contrario, no tendrás acceso a esta funcionalidad.
Por este precio y lo que puedes conseguir, creemos que merece la pena. Pero aunque seas un usuario de pago, tienes que asegurarte de que lo tienes activado.
Porque viene sin configurar por defecto..
Así que, aquí tienes un vídeo que te muestra cómo configurarlo:
Casos de uso de Code Interpreter SEO
Ahora que ya sabes como activar Code interpreter vayamos a lo interesante.
Como profesional del marketing, este plugin ofrece una amplia gama de aplicaciones prácticas dentro del SEO.
Desde la investigación de palabras clave, el análisis automático de registros y la generación de contenido único con gráficos y diagramas visuales, hasta la identificación de áreas clave de mejora en términos de estructura del sitio, metaetiquetas, palabras clave LSI y velocidad de carga.
Además, puedes obtener sugerencias sobre contenidos para hacerlos más relevantes y optimizados de cara a los motores de búsqueda.
A continuación, vamos a explorar algunas de las posibilidades más prometedoras para desbloquear tu estrategia SEO.
Sigue leyendo:
Identificar palabras clave de alto potencial a partir de sus archivos CSV en cuestión de minutos.
Esta función aprovecha sus capacidades analíticas de SEO, generando información valiosa para alimentar tus estrategias de SEO de contenidos.
Mediante el análisis de varios factores como el volumen de búsqueda, el nivel de competencia, la posición actual y la intención del usuario, los responsables de contenidos digitales pueden tomar decisiones basadas en datos sobre qué palabras clave y contenidos deben priorizar.
Con el fin de mejorar la visibilidad orgánica y conseguir más tráfico relevante a sus páginas web.
Para ello, sólo tienes que introducir tus archivos de Ahrefs, Semrush o Google Search Console y ver lo que obtienes.
Te aseguramos que vas poder priorizar la optimización de contenidos sabiendo que arreglar, donde eliminar URLs intrascendentes o localizar canibalizaciones.
Mapas temáticos y sugerencias de arquitectura del sitio
Con la ayuda de esta aplicación, también podrás analizar con facilidad la estructura de tu sitio web y obtener sugerencias para crear topical maps.
Al introducir los datos de rastreo de tu sitio web extraídos con Screaming Frog en ChatGPT, puedes crear sugerencias perspicaces sobre cómo organizar el contenido y crear una arquitectura web óptima.
Esto te permitirá mejorar la experiencia del usuario, mejorar el posicionamiento en los buscadores y aumentar en última instancia el tráfico orgánico.
Además, puedes pedir a Code Interpreter que visualice estas sugerencias a través de mapas temáticos y obtener una mejor comprensión de la jerarquía de tu sitio web a través de gráficos.
Análisis automático de Logs
Otro aspecto de interés dentro del SEO es la capacidad para realizar un análisis de registros o log automatizados y prácticamente sin esfuerzo.
Al cargar un archivo ZIP (sí, se pueden cargar archivos ZIP), Code Interpreter te permite como SEO introducir datos de registro de tu servidor sin procesar y extraer información valiosa en cuestión de segundos.
Esta función elimina el largo proceso manual de análisis de logs con fines de SEO, lo que permite a los profesionales del marketing identificar patrones, detectar errores, realizar un seguimiento de las métricas de rendimiento del sitio web y optimizar sus estrategias de forma eficaz.
Sugerencias para la creación de enlaces internos
Para maximizar el potencial SEO de tu sitio web, la creación de enlaces internos es crucial.
Afortunadamente, el complemento Code Interpreter de ChatGPT puede proporcionar valiosas sugerencias para mejorar tu estrategia de enlaces internos.
Analizando la estructura y pagerank de tu sitio web, Code Interpreter puede recomendar páginas relevantes para enlazar dentro de tu sitio. Ayudando a los motores de búsqueda a comprender mejor la jerarquía, relación e importancia de las distintas páginas.
Esto no sólo mejora la experiencia del usuario, sino que también facilita la visibilidad de las páginas importantes en las páginas de resultados de los motores de búsqueda.
Con el plugin Code Interpreter de ChatGPT como aliado, tendrás acceso a recomendaciones inteligentes para optimizar tu enlazado interno y conseguir máximo impacto con tu SEO.
Decodificación de los datos de Google Search Console para el rendimiento SEO
Otra función útil para el SEO de este complemento es que te permite extraer información significativa de los datos de búsqueda de Google Search Console, para identificar las palabras clave de mayor o menor rendimiento, descubrir tendencias en el tráfico orgánico y identificar oportunidades de optimización prioritarias:
Al cargar los datos sin procesar de Search Console, ChatGPT puede analizarlos e interpretarlos para obtener información valiosa en muy poco tiempo.
Sin pasar por analizar los resultados en un excel o cruzando varias herramientas.
De esta forma podrás extraer información de forma rápida para mejorar tus estrategias SEO en muy poco tiempo.
Análisis del perfil de construcción de enlaces
La construcción de enlaces es un aspecto crucial de cualquier estrategia SEO y el plugin Code Interpreter de ChatGPT puede ser una valiosa herramienta para ayudarte a analizar el perfil de enlazado de tus competidores.
Así podrás extraer patrones comunes de enlazado externo para construir una estrategia válida de link building y mejorar tu propia autoridad de dominio, pagerank, relevancia y otras métricas importantes.
Forecast SEO
La previsión de SEO es un aspecto crucial cuando se habla con directivos de nivel C o directores de marketing.
También es una tarea que requiere mucho tiempo y que muchos profesionales odian.
Pero con la ayuda del intérprete de código, ya no.
O al menos es posible obtener previsiones a partir de una serie de datos, por lo que puede ayudarte enormemente en esta área.
Así que puedes predecir las tendencias futuras, evaluar el rendimiento de las estrategias potenciales, y tomar decisiones informadas con respecto a las estrategias de SEO.
Alienando está con los objetivos de tu empresa y planificar de forma eficaz tus campañas para asignar recursos y obtener resultados óptimos.
Generación de contenidos únicos con gráficos visuales a partir de datos
Esta función es especialmente valiosa para las estrategias de SEO basadas en contenidos, ya que te permite presentar información respaldada con datos en un formato convincente y fácil de entender.
Que puedes aprovechar para generar contenido único y de valor con facilidad:
Piensa en los gráficos y diagramas visuales que puedes extraer de tus propios datos, por ejemplo:
So it looks like ChatGPT with Code Interpreter can do basically any visualization technique you ask. And you can tell it to make charts "more beautiful"
— Ethan Mollick (@emollick) May 2, 2023
(I actually asked it to generate artificial data to create the charts to show what they could do, which the AI happily did😬) pic.twitter.com/CsmRO8vDe1
Siendo estos solo tuyos y de nadie más, podrás desbloquear nuevas posibilidades para la creación de contenidos atractivos que resuenen con tu público en cuestión de segundos.
Mejorando los contenidos existentes y produciendo nuevos.
Casos de uso ChatGPT Code Interpreter para el análisis y visualización de datos
En lo que respecta al análisis de datos, también podemos concluir que el intérprete de código para usuarios de ChatGPT plus es una potente herramienta para culturizar analista digital.
Puede ayudar en tareas como:
- Limpieza de datos
- Análisis de regresión
- Análisis de tendencias
- Previsión de precios
- Implementación de eventos de comercio electrónico
Y muchos ejemplos más.
Descubramos ahora, cómo este plugin está destinado a cambiar el panorama de las aplicaciones de análisis de datos:
Asistencia en la limpieza y el preprocesamiento de datos
Las tareas de limpieza y preprocesamiento de datos se encuentran entre las más tediosas en el campo del análisis de datos y la analítica digital.
Al aprovechar la ejecución de código Python, Code Interpreter puede gestionar eficazmente operaciones complejas de limpieza de datos, lo que te permite agilizar los procesos de análisis de datos.
Esta función facilita la limpieza y preproceso de grandes conjuntos de datos, garantizando resultados fiables y precisos para tus análisis:
🤖 Prompt de analítica 🤖
— Arnau Vendrell (@arvendrell) July 12, 2023
Para los que vivimos entre datos, normalizarlos para poder trabajar con ellos puede llegar a ser un absoluto dolor de cabeza.
Code interpreter puede llegar a ser tremendamente útil a la hora
1º Unifica los datos en un CSV pic.twitter.com/XxJAp4GKEm
Análisis de regresión y correlación
El complemento Code Interpreter de ChatGPT permite a cualquier profesional realizar análisis de regresión y correlación sin esfuerzo.
Como en el siguiente vídeo:
Con esta potente herramienta, puedes analizar fácilmente la relación entre variables, identificar patrones y tomar decisiones basadas en datos.
Introduciendo tus datos podrás ejecutar rápidamente el código Python para calcular coeficientes de regresión y coeficientes de correlación.
Ver si dos variables están relacionadas y de qué forma.
De esta forma comprenderás cómo afectan los distintos factores a tu rendimiento SEO, a tus ventas, permitiéndote adaptar tus estrategias en consecuencia.
Segmentación y análisis de conglomerados
Nadie duda de que la segmentación y el análisis de clusters son técnicas cruciales en marketing digital para identificar distintos grupos de clientes con características similares.
Con el plugin Code Interpreter, podrás emplear algoritmos avanzados de análisis de datos, a golpe de clic, para segmentar tu base de clientes de forma eficaz y en poco tiempo.
Mediante el análisis de diversas variables como la información demográfica, el comportamiento de navegación, el historial de compras o las métricas de compromiso, es posible identificar patrones y agrupar a los clientes en clusters basados en similitudes.
Esta información permite diseñar estrategias de marketing específicas adaptadas a cada segmento, mejorando la eficacia de las campañas y maximizando el retorno de la inversión.
Análisis de tendencias
Una de las principales ventajas de utilizar el complemento Code Interpreter de ChatGPT es su capacidad para realizar análisis de tendencias.
Y es que es posible analizar e identificar fácilmente patrones en los datos que te pueden ayudar a formar tus estrategias de marketing en cuestión de minutos.
Tanto si se trata de analizar las tendencias de tráfico de un sitio web, como de identificar las palabras clave más populares a lo largo del tiempo o de realizar un seguimiento de los cambios en el comportamiento de los consumidores, el complemento Code Interpreter proporciona un análisis exhaustivo de las tendencias que puede mejorar significativamente su proceso de toma de decisiones.
Con acceso a datos en tiempo real, dispondrás de información valiosa para optimizar tus esfuerzos en cualquier canal y mantenerte a la vanguardia en el panorama digital en constante evolución.
Previsión de precios
La previsión de precios es un aspecto crucial en muchos sectores como la moda, las materias primas, el comercio bursátil o las agencias de viajes.
Con el plugin Code Interpreter de ChatGPT, puedes analizar fácilmente datos históricos y predecir tendencias futuras de precios.
Al aprovechar el poder de la inteligencia artificial y el análisis de datos, podrás generar previsiones precisas, lo que le permite optimizar tus estrategias de precios, ventas y compras para obtener la máxima rentabilidad.
Análisis de canales: Información sobre el canal con mayores ingresos
Otro caso de uso interesante para Code Interpreter en la analítica digital es proporcionar información valiosa sobre el canal con mayores ingresos para tu negocio.
O para realizar analisis de atribución.
Esto incluye tareas como:
- Analizar datos de campañas.
- Identificar los canales de mayor rendimiento.
- Comprender los patrones de comportamiento de los clientes.
- Extraer información significativa de conjuntos de datos complejos.
Con esta información a mano, cualquier director de marketing puede tomar decisiones informadas sobre cómo alocar sus inversiones y determinar mejor cuáles son las palancas para obtener el máximo crecimiento de los ingresos.
Creación de mapas de calor
Con sólo unas pocas líneas de código, se pueden generar mapas de calor basados en diversas métricas, como las tasas de clics, las tasas de conversión o incluso los datos geográficos.
Esta función es sólo un ejemplo de cómo el complemento Code Interpreter puede revolucionar el análisis de datos para cualquiera al permitir de forma eficaz organizar la información sin necesidad de ser científico de datos.
Democratizando el uso de los mismos.
Representación gráfica visua
Tanto si deseas analizar el rendimiento SEO, realizar un seguimiento de los datos de tu campaña o presentar información a las partes interesadas, el complemento Code Interpreter te permite crear representaciones visuales completas que comunican de forma eficaz información compleja a su jefe o a los ejecutivos de nivel C.
Para darte algunas ideas aquí tienes un ejemplo de creación de gráficos visuales:
Así que no necesitarás un especialista en datos para potenciar la representación con gráficos visuales para tus necesidades.
Con esta función, podrás generarlos fácilmente para mostrar conclusiones de forma clara e impactante.
Cálculo complejo de costes/ingresos para optimizar la asignación de productos/servicios
El plugin Code Interpreter de ChatGPT ofrece una potente solución para los profesionales del marketing digital que buscan optimizar la asignación de sus productos o servicios mediante la realización de cálculos complejos de costes e ingresos.
Con la capacidad de introducir grandes conjuntos de datos, esta herramienta permite a los usuarios analizar y comparar los costes e ingresos de diferentes canales o productos, proporcionando información valiosa para la toma de decisiones.
Al aprovechar las capacidades de IA de ChatGPT, puede ejecutar sin esfuerzo fragmentos de código que gestionan cálculos intrincados y generan resultados precisos. Esto le permite asignar sus recursos de forma eficaz y maximizar el retorno de la inversión.
Otras funciones del Intérprete de código para ChatGPT Plus
Code Interpreter puede utilizarse para convertir archivos CSV en código y también para generar prompts con diversos fines.
Generación y optimización de prompts
Una de las potentes capacidades del plugin Code Interpreter de ChatGPT es la generación de prompts.
Para los profesionales del marketing digital, esta función puede ser increíblemente útil a la hora de mejorar sus prompts o crearlos desde cero para sus finalidades como la creación de contenidos, la investigación de palabras clave y la redacción de anuncios.
Simplemente interactuando con ChatGPT mediante instrucciones o consultas específicas, puedes aprovechar sus capacidades para generar ideas atractivas y optimizar tus estrategias de marketing.
Con la ayuda de code interpreter, puedes desbloquear un nuevo nivel de creatividad y eficiencia en tus campañas de marketing digital.
De CSV a código
El plugin ChatGPT Code Interpreter ofrece también una potente función:
La capacidad de convertir datos CSV en código ejecutable.
Con esta funcionalidad, puedes transformar fácilmente grandes conjuntos de datos de hojas de cálculo u otras fuentes en código Python que se pueden analizar y manipular.
Esto significa que puedes procesar y analizar rápidamente tus datos utilizando las capacidades de IA de ChatGPT, ahorrando tiempo y esfuerzo en el proceso. Si desea realizar cálculos complejos, generar visualizaciones o extraer información valiosa, la función de conversión de CSV a código del complemento de interpretación de código de ChatGPT le permitirá trabajar de forma eficaz con sus datos para fines de SEO y análisis de marketing.
Limitaciones de Code Interpreter
Aunque el intérprete de código brinda gran poder y flexibilidad, actualmente tiene limitaciones.
- No tiene acceso a Internet: El intérprete de código no tiene acceso a Internet, lo que significa que no puede obtener datos directamente de la web ni interactuar con APIs en línea.
- Tamaño de archivos limitado: El tamaño máximo de archivo que se puede cargar es de 250 MB. Para solucionarlo, puedes comprimir tus datos en un archivo zip para reducir su tamaño. Sin embargo, recuerda que los datos descomprimidos aún deben caber en la memoria disponible.
- Soporte de lenguaje únicamente Python: Actualmente, el intérprete de código solo admite código Python.
- No se permite la instalación de paquetes externos de Python. Sin embargo, el entorno de programación viene preinstalado con más de 330 paquetes, que incluyen, entre otros, numpy para cálculos numéricos, pandas para manipulación y análisis de datos, matplotlib para visualización de datos y OpenCV para tareas de visión por computadora.
- Persistencia del entorno: Si el entorno se detiene, se pierde todo el estado. Los archivos generados también se vuelven inaccesibles, ya que los enlaces de descarga dejan de funcionar.
- Corte de conocimiento: El modelo subyacente, GPT-4, tiene un «corte de conocimiento», es decir, no tiene conocimiento de eventos que ocurrieron después de que se recopilaron los datos de entrenamiento.
En conclusión: Code Interpreter vitamina tus capacidades para el análisis de datos
En definitiva podemos concluir que Code Interpreter de ChatGPT cambia las reglas del juego para los profesionales del mundo digital en relación al análisis de datos.
Con sus potentes capacidades, permite liberar todo el potencial de tus datos a golpe de clic.
Facilitando el acceso a un código eficiente para obtener conclusiones de tus datos, generar potentes visualizaciones y editar archivos para los que antes eran necesarios profundos conocimientos técnicos y habilidades.
Además de varias herramientas.
Ahora mismo, a pesar de sus limitaciones, ChatGPT Plus es lo más parecido a tener acceso directo a tu científico de datos personal.
Y es que tienes a mano lanzar las preguntas que nunca obtienen respuestas para mejorar tus estrategias y tomar decisiones más informadas basadas en análisis exhaustivos.
El futuro de la IA y la ciencia de datos en la industria del marketing digital parece más prometedor, con herramientas como el complemento Code Interpreter que nivelan el campo de juego para todos.
Enlaces y Recursos
- https://www.analyticsvidhya.com/blog/2023/07/chatgpts-code-interpreter-all-you-need-to-know/
- https://www.pcguide.com/apps/chatgpt-code-interpreter-what-is-this-plugin/
- https://www.nytimes.com/2023/07/11/technology/what-to-know-chatgpt-code-interpreter.html
- https://medium.com/mlearning-ai/chatgpt-plugins-code-interpreter-visualizer-and-more-be8667a56767
- https://www.analyticsinsight.net/chatgpt-plus-users-to-get-access-to-code-interpreters/
- https://mpost.io/what-is-code-interpreter/
- https://roedigital.com/chat-gpt-plugins/
Prompts para Code Interpreter
Co-CEO y Head of SEO de iSocialWeb, una agencia especializada en SEO, SEM y CRO que gestiona más de +350M de visitas orgánicas al año y con una infraestructura 100% descentralizada.
Además de la empresa Virality Media, una empresa de proyectos propios con más de 150 Millones de visitas activas mensuales repartidos entre diferentes sectores e industrias.
Ingeniero de Sistemas de formación y SEO de vocación. Aprendiz incansable, fan de la IA y soñador de prompts.