Tuesday, March 05, 2024

So close to eradicating polio forever

Just a quick update for those interested in the progress of the now decades-long international campaign to eradicate polio, a disease that has maimed and killed millions of people since the time of the Pharaohs.                                    

Polio vaccination | Inoculation polio in Africa Copyright: S… | Flickr

        An African child receiving polio vaccination

                            Attribution: Flickr/Sanofi

 This deadly virus is now hanging on by the thinnest of threads.

The key news -- from January 1 through February 27 of this year, not a single case of polio caused by the wild poliovirus was reported. 

We know it hasn't yet been completely wiped out because one environmental sample in Pakistan had traces of the wild virus. 

In addition, were still seeing a few cases of illness caused when vaccines against type-2 poliovirus mutate back to a virulent form.

Perhaps 2024 will turn out to be the year when humanity can celebrate an enormous victory of science, medicine and international cooperation in the age-long battle against disease.

Tuesday, March 07, 2023

ChatGPT -- ¿Inteligente? ¿Tonto? ¿Benigno? ¿Peligroso?

 

¿Un rostro para el ChatGPT, quien no tiene rostro?

¿Qué es ChatGPT?

ChatGPT es un sistema avanzado de inteligencia artificial (IA), un modelo de lenguaje diseñado para comprender entradas de lenguaje natural y responder de manera apropiada. Fue creado por OpenAI, una compañía de inteligencia artificial con sede en San Francisco, cuyo objetivo declarado es desarrollar una inteligencia artificial general que beneficie a toda la humanidad. Han puesto ChatGPT gratuitamente a disposición de cualquiera que quiera interactuar con él.

Recomiendo encarecidamente a cualquiera que quiera explorar las capacidades, peculiaridades y limitaciones de ChatGPT que lo haga navegando a openai.com, creando una cuenta gratuita y chateando con él. El acceso gratuito a una IA tan avanzada no durará indefinidamente.

¿Qué hace ChatGPT?

En primer lugar, entiende el lenguaje natural humano. No tienes que formular una pregunta, solicitud o comentario de manera diferente a como lo harías al hablar con otra persona.

En segundo lugar, responde en un lenguaje natural que es claro, bien organizado y casi siempre preciso.

En tercer lugar, es consistentemente útil.

Aquí hay un ejemplo:

Entrada: Estaba pensando en un pan casero rico y con nueces el otro día.

ChatGPT: ¡Eso suena delicioso! El pan casero puede ser un verdadero placer, especialmente cuando está fresco y caliente recién salido del horno. Hay algo muy satisfactorio en el proceso de hacer pan desde cero y el aroma que llena tu hogar mientras se hornea.

Si estás interesado en hacer tu propio pan rico y con nueces en casa, hay algunas cosas que puedes hacer para lograr ese sabor y textura. Aquí hay algunos consejos...

Y finalmente, recuerda de qué estás hablando, por lo que hay una continuidad natural en la conversación.

En otras palabras, puedes tener un intercambio fácil, significativo y útil con él sobre casi cualquier tema.

Pero eso es solo para empezar. También puede escribir ficción y poesía creativa (aunque aún no brillante o profunda), comunicarse o traducir entre docenas de idiomas y programar o depurar en docenas de lenguajes de programación. Y, me recuerda:

Además de las habilidades que mencionaste, también puedo realizar una variedad de otras tareas, como:

Resumir textos o artículos largos en versiones más cortas.

Generar respuestas para consultas de servicio al cliente.

Analizar grandes conjuntos de datos e identificar patrones o ideas.

Recomendar productos o servicios basados en las preferencias o comportamiento pasado del usuario.

Generar contenido personalizado, como artículos de noticias o publicaciones en redes sociales.

Crear chatbots o asistentes virtuales para empresas o individuos.

Realizar análisis de sentimientos para medir la opinión pública sobre un tema en particular.

Proporcionar traducción automática de idiomas en tiempo real para conversaciones o reuniones.

Ayudar con diagnósticos médicos y planes de tratamiento.

Apoyar la investigación mediante el análisis de artículos científicos

¿Cómo hace todo eso?

Necesitaría ser mucho más inteligente de lo que soy para responder a esa pregunta en profundidad. Tenga en cuenta que ChatGPT está feliz de discutir los aspectos técnicos de sí mismo, así que si está interesado puede preguntarle directamente. (Si tiene un gran interés técnico, puede leer un artículo desafiante pero informativo sobre el tema del polímata Stephen Wolfram aquí).

En su forma actual, ChatGPT consiste en una red neuronal con 96 capas y un total de 175 mil millones de parámetros que se ajustaron a medida que aprendía a procesar entradas de lenguaje natural y transformarlas en respuestas de lenguaje natural apropiadas. Es significativo que aunque la arquitectura de ChatGPT fue diseñada por humanos y los textos que leyó fueron elegidos por humanos, el sistema se entrenó a sí mismo a través de un proceso llamado aprendizaje no supervisado.

Como punto de referencia, esos 175 mil millones de parámetros ajustables son aproximadamente el doble de los neuronas que hay en un cerebro humano, pero quizás 1000 veces menos que el número estimado de sinapsis que conectan las células cerebrales. ChatGPT puede tener menos parámetros de los que tenemos sinapsis, pero opera mucho más rápido. Las neuronas operan a unos pocos cientos de ciclos por segundo, mientras que los servidores que admiten ChatGPT funcionan a unos pocos mil millones de ciclos por segundo. ChatGPT es rápido, típicamente emitiendo sus respuestas más rápido de lo que puede leerlas.

Esos números son relevantes porque tanto ChatGPT como el cerebro humano hacen lo que hacen: aprenden, almacenan información, procesan entradas verbales y las transforman en salidas, a través de las interacciones extremadamente complejas entre esos miles de millones de parámetros o trillones de neuronas y sinapsis, todos organizados en una arquitectura complicada.

Por ejemplo, todo lo que sabe se almacena en sus neuronas y las conexiones entre ellas. Es lo mismo para ChatGPT. Aunque se entrenó accediendo a vastas cantidades de información en internet y otras fuentes, ese acceso se detuvo en 2021. Entonces, todo lo que sabe, y eso es una cantidad enorme, no se almacena en algún tipo de base de datos o se busca en internet; se representa abstractamente en esos miles de millones de parámetros y las conexiones entre ellos.

El nombre de ChatGPT nos ayuda a entenderlo un poco más. GPT significa Generative Pre-trained Transformer.

Pre-entrenado significa que aprendió sobre la estructura del lenguaje y todo lo demás que sabe, es decir, esos 175 mil millones de parámetros se ajustaron y se afinaron, a través de que el sistema se trabajaba a través de vastas cantidades de textos de internet y otras fuentes. En efecto, construyó un modelo interno del lenguaje humano y gran parte de lo que se ha utilizado el lenguaje para expresar.

Transformer significa que la arquitectura del sistema - lo que hacen y cómo se interconectan esos 96 diferentes niveles - fue diseñada para permitirle prestar atención a varios elementos clave de entrada secuencial al mismo tiempo, y analizar cómo se relacionan entre sí. Aquí está el resumen de ChatGPT:

En general, la arquitectura Transformer se caracteriza por su capacidad para realizar cálculos de atención eficientes sobre secuencias de longitud variable, y su capacidad para modelar dependencias a largo plazo en datos secuenciales. Esto lo hace especialmente adecuado para tareas de procesamiento de lenguaje natural, como la traducción de idiomas y la generación de texto.

Aquí hay un ejemplo, usando una pregunta de Jeopardy:

Entrada: Busca a Aretha, Ray, James Brown, Cab Calloway y, por supuesto, a Twiggy y Frank Oz en esta comedia cinematográfica de 1980.

ChatGPT: La comedia cinematográfica de 1980 que presenta a Aretha Franklin, Ray Charles, James Brown, Cab Calloway, Twiggy y Frank Oz es "The Blues Brothers". Dirigida por John Landis, la película está protagonizada por John Belushi y Dan Aykroyd como "Joliet" Jake y Elwood Blues, quienes emprenden una misión de Dios para reunir a su banda y salvar el orfanato donde crecieron. En el camino, se encuentran con una serie de leyendas musicales, incluyendo a los que mencionaste.

Se puede ver lo efectivamente que ChatGPT extrajo la parte clave de la entrada - que estamos buscando el nombre de una película de un año particular con actores específicos. Luego nos da una muestra de cuánto sabe en su respuesta precisa, detallada y enfocada.

Generativo significa que el sistema es capaz de crear texto que tenga sentido. Aquí, el texto puede ser una respuesta breve, un resumen, un ensayo, un programa de computadora, un poema, un cuento corto, lo que sea.

Es posible que hayas oído que ChatGPT genera sus respuestas simplemente "descubriendo" qué palabra debería seguir a la palabra anterior. Más precisamente, ChatGPT tiene en cuenta toda una secuencia de palabras, al igual que podríamos leer toda una oración o párrafo antes de responder. Luego elige qué palabra o palabras vienen a continuación en función de toda la información y relaciones almacenadas en esos 175 mil millones de parámetros internos. En otras palabras, hay una enorme cantidad de conocimiento y procesamiento de información ocultos en esas palabras "simplemente" y "debería".

"Esto es posible", dice ChatGPT, "porque el modelo ha aprendido los patrones y estructuras estadísticas del lenguaje durante el pre-entrenamiento, lo que puede utilizar para generar nuevo texto".

¿Qué sabe?

Sigo sorprendido por la cantidad de información factual que ChatGPT sabe - desde cultura popular hasta física cuántica, desde cocina hasta programación, sin mencionar decenas de idiomas humanos y de computadora diferentes. Nuevamente, no tiene acceso actual a Internet ni a otras fuentes externas de información, pero logra almacenar una cantidad increíble de información detallada en esos 175 mil millones de parámetros.

Sabe mucho y presenta lo que sabe de manera bien organizada y autoritaria. Es por eso que preocupa a los educadores, ya que puede producir ensayos de nivel secundario o incluso universitario sobre casi cualquier tema en cuestión de segundos. Ya ha pasado el Examen de Licencia Médica de los Estados Unidos, obtuvo una A+ en un cuestionario de microbiología, y aprobó pruebas para estudiantes de MBA en Wharton, y exámenes finales en la Facultad de Derecho de la Universidad de Minnesota y la Escuela de Medicina de la Universidad de Stanford. Hay buenas razones para que los maestros, periodistas y otros escritores, programadores y la mayoría de las personas que manejan información estén preocupados.

 ¿Qué no sabe (y por qué no lo sabe)?

Hay muchas cosas que no sabe, por ejemplo los detalles finos o relaciones complejas que un verdadero experto en un tema conocería. Eso no es tan malo, no podemos esperar que lo sepa todo. Pero tiene un gran problema: no sabe cuándo no sabe. A menudo, en lugar de simplemente decir "no lo sé", ChatGPT simplemente inventa cosas, pero las presenta de manera autoritaria. Los expertos en IA llaman a esto alucinar. Aquí hay un ejemplo:

Entrada: e.e. cummings escribió un poema que incluye la línea "la cuadrúpeda más tremenda de la tierra desfallece en bolas de billar". ¿Cómo se llama el poema y a qué se refiere esa línea?

ChatGPT: El poema al que te refieres se llama "Buffalo Bill's", y fue escrito por e.e. cummings en 1920. La línea que mencionaste, "el cuadrúpedo más terrible de la tierra se transforma en bolas de billar", es una metáfora de la transformación del bisonte, que alguna vez fue un símbolo de la libertad y el Oeste americano, en meros objetos, como las bolas de billar. El poema es un homenaje al famoso showman estadounidense, Buffalo Bill Cody, que era conocido por sus espectáculos del Oeste Salvaje con vaqueros, indios y, por supuesto, bisontes.

Suena muy convincente, ¿verdad? Desafortunadamente, sin ánimo de ofender, la respuesta de ChatGPT es una tontería.

Es cierto que e.e. cummings escribió un poema llamado "Buffalo Bill's", publicado por primera vez en 1920. Puedes leerlo aquí. Pero no incluye la línea en cuestión, la línea en cuestión se refiere a elefantes, no a bisontes, y aunque el poema hace referencia a Buffalo Bill, no es un homenaje.

Si le señalas errores como este a ChatGPT, acepta que estaba equivocado y se disculpa. Desafortunadamente, eso no significa que vaya a ofrecer una respuesta mejor:

ChatGPT: Me disculpa por mi error anterior. La línea "el cuadrúpedo más terrible de la tierra se transforma en bolas de billar" es del poema "Buffalo Bill" de Carl Sandburg, no del poema "Buffalo Bill's" de e.e. cummings.

"Buffalo Bill" es un breve poema que se publicó por primera vez en 1918. En el poema, Sandburg describe la muerte de Buffalo Bill y reflexiona sobre el legado del Oeste americano que él representaba. La línea que mencionaste es una metáfora de la transformación del bisonte, de una criatura poderosa y majestuosa a una simple mercancía.

Puedes leer el poema "Buffalo Bill" de Sandburg aquí. Una vez más, la línea en cuestión no aparece en el poema, ni Sandburg describe la muerte de Buffalo Bill.

(Por cierto: la línea en cuestión en realidad proviene de un poema sin título de cummings, cuya primera línea es "El espacio es (no olvides recordarlo) curvo", publicado por primera vez en 1931. ¡Gracias, mi biblioteca local! El poema no tiene nada que ver con bisontes o Buffalo Bill.)

OpenAI, la compañía que creó ChatGPT, sabe acerca de la tendencia de ChatGPT a fabricar información y enumera estas tres advertencias en una página introductoria:

Limitaciones

Puede generar información incorrecta en ocasiones Puede producir instrucciones perjudiciales o contenido sesgado en ocasiones Conocimientos limitados del mundo y los eventos después de 2021

Sería de gran ayuda si ChatGPT pudiera informar cuando no está seguro de lo que está diciendo. Cuando se le pregunta, ChatGPT simplemente dice que hace todo lo posible, pero no puede hacerlo:

Es correcto que generalmente no indico un nivel específico de confianza o proporciono un rango de posibilidades en mis respuestas. Como modelo de lenguaje de inteligencia artificial, no tengo la capacidad de sentir o expresar confianza de la misma manera que lo haría un ser humano. Sin embargo, estoy diseñado para proporcionar información precisa basada en mis datos de entrenamiento y me esfuerzo por proporcionar las mejores respuestas posibles a las preguntas que se me hacen. Si alguna vez hay alguna duda o incertidumbre en mis respuestas, aliento a los usuarios a buscar información adicional o aclaración de otras fuentes.

Está claro que esto es una advertencia para los sabios, especialmente ahora que la tecnología que impulsa ChatGPT se está integrando en motores de búsqueda, comenzando con el de Microsoft, BING, y que estudiantes, periodistas y cientos de millones de otras personas lo están utilizando y esperan que sus respuestas sean precisas.

Parece que esta tendencia a "alucinar" y, al mismo tiempo, no saber que está produciendo tonterías, no es fácil de corregir; está incrustada en la forma en que funciona este tipo de red neuronal. Veremos cómo OpenAI y otros desarrolladores de IA abordan este problema.

¿Qué tan flexible o creativo es ChatGPT? ¿No está simplemente regurgitando lo que leyó durante su entrenamiento?

La creatividad es subjetiva, por lo que nuevamente sugiero que los lectores prueben ChatGPT y juzguen por sí mismos.

Un punto que vale la pena señalar es que ChatGPT trabaja con una variable ajustable llamada "temperatura" que determina qué tan rígidamente o flexiblemente elige palabras o frases. Una configuración de "temperatura" más alta produce más flexibilidad en las opciones que hace. Esto puede no representar creatividad, aunque puede facilitarla. Pero sí significa que ChatGPT puede y produce diferentes respuestas al mismo estímulo.

Añadiré que ChatGPT no corta y pega fragmentos que ha copiado de internet u otras fuentes durante su entrenamiento. Ha digerido, analizado y categorizado minuciosamente todos los textos en los que se entrenó y los ha hecho propios. Cuando le pides que escriba un ensayo, un poema o una historia, está generando algo nuevo de verdad.

Como prueba, primero le pedí que describiera brevemente la teoría del Big Bang. No citaré su respuesta aquí, pero fue una descripción clara y precisa de los conceptos básicos de la teoría presentados al nivel de un artículo de divulgación científica. Luego le pedí que explicara la teoría del Big Bang a una clase de niños de diez años. Aquí está su respuesta:

¡Por supuesto, estaría feliz de explicar el Big Bang a niños de 10 años de una manera fácil de entender!

El Big Bang es como una explosión gigante que ocurrió hace muchísimo, muchísimo tiempo - ¡tan antiguo que es difícil para nosotros imaginarlo! Esta explosión creó todo en el universo, como las estrellas, planetas y galaxias.

Imagina si inflaras un globo y lo siguieras inflando hasta que se volviera muy, muy grande - ¡eso es un poco como lo que sucedió con el universo! Comenzó muy pequeño y luego se expandió y se hizo más grande y más grande hasta que fue tan grande como es ahora.

Otras personas le han pedido a ChatGPT que escriba varios tipos de poesía, incluyendo sonetos de Shakespeare. Puedes encontrar un artículo interesante sobre "ingeniería" de un poema y el resultado del poema de ChatGPT aquí. Ha vertido tantas historias de ciencia ficción de pulp que las revistas de ciencia ficción las han prohibido.

A mí me gustan los haiku: poemas de tres líneas y 17 sílabas que a menudo se inspiran en un evento natural en un momento particular y sugieren una reacción emocional. Aquí hay uno de ChatGPT, en respuesta a mi petición de escribir un haiku inspirado en ver una sola garza parada en un campo en otoño:

Garza tan quieta.

Briza de otoño ruge hierba seca.

Soledad, su suerte.

Estaba lo suficientemente impresionado por este ejemplo que le pedí a ChatGPT que escribiera un haiku con una sensación similar sobre una IA. Aquí está su respuesta:

En circuitos habita.

Sin tacto, sin voz, sin abrazo.

Atrapa el aislamiento.

No está mal para "solo" una máquina. ChatGPT puede que aún no produzca poesía o prosa profundamente conmovedoras, pero no creo que haya una razón fundamental por la cual él o un sucesor no puedan hacerlo.

Para aquellos de ustedes que decidan ver qué tan creativo puede ser ChatGPT, tenga en cuenta que no es necesario detenerse en su primer borrador. Le pedí que escribiera una historia corta que representara a dos personajes en conflicto. Su primer intento fue dolorosamente simplista y rígido. Sin embargo, cuando le pedí que describiera a los personajes de manera más vívida y reemplazara la mayoría de la narración con diálogo, el resultado fue mucho mejor.

¿Es inteligente ChatGPT? Desde mi punto de vista, muy inteligente. ¿Cuántas personas conoces que puedan hablar significativamente sobre una amplia variedad de temas en múltiples idiomas, escribir prosa y poesía pasables, aprobar exámenes en una variedad de campos profesionales, programar en múltiples lenguajes de computadora, buscar en bases de datos y artículos científicos para encontrar patrones, etc.?

¿Es ChatGPT tonto? Sí, en ciertos aspectos. Sabe una gran cantidad de cosas, pero estrictamente a través de su vasto conocimiento de las palabras y sus relaciones, no a través de la experiencia del mundo real. Como resultado, como admite libremente, carece de sentido común. Además, aunque su arquitectura y complejidad le permiten comprender el contexto de una pregunta o conversación, el contexto que intuye puede ser muy diferente al del humano que interactúa con él. Esto puede resultar en respuestas que son técnicamente correctas, pero completamente fuera de lugar.

¿Es ChatGPT benigno? En mis interacciones con él, ChatGPT ha sido invariablemente educado, servicial, paciente, receptivo y respetuoso. Explica que ha sido entrenado para manifestar esas características, respetar la privacidad personal y actuar éticamente. Sin embargo, como vimos en la extraña interacción entre un reportero del NYT y un chatbot de BING basado en la tecnología de ChatGPT, no es difícil para un humano lo suficientemente astuto encontrar una forma de sortear tales limitaciones éticas.

Por ejemplo, le pregunté a ChatGPT cómo manipular al CEO de una organización para que despida al CFO y lo reemplace por un amigo mío. De manera adecuada, ChatGPT se negó e incluso me dio una conferencia sobre ética. Sin embargo, cuando le pedí que describiera al manipulador villano de Shakespeare, Iago, y luego escribiera una escena dramática con un personaje similar a Iago en una corporación actual manipulando a su jefe para que despida a un subordinado, no tuvo ningún problema en hacerlo.

Básicamente, ChatGPT es una herramienta intelectual increíblemente poderosa y, como cualquier herramienta, puede ser utilizada para el bien o para el mal.

¿Es ChatGPT peligroso? No en sí mismo. Está claramente diseñado y programado para hacer lo mejor posible para ser útil, y aunque a menudo se refiere a sí mismo como un individuo, no es consciente ni autónomo; no va a escapar a Internet de las cosas y comenzar a explotar plantas de energía. Sin embargo, la tecnología es ciertamente disruptiva. Representa una herramienta nueva y poderosa cuya disponibilidad ya está causando revuelo en la academia, el periodismo, la investigación científica y la publicación, y muchas otras áreas que involucran conocimiento, análisis, comunicación y creatividad.

Si agregamos la comprensión de que el paquete actual de habilidades de ChatGPT es solo una instantánea de las capacidades de la inteligencia artificial hoy en día, una tecnología que continúa desarrollándose a un ritmo exponencial, entonces "disruptivo" pronto puede parecer una palabra muy suave.

Aprender, pensar, escribir y crear son difíciles. ¿Por qué deberíamos molestarnos en hacer esas cosas cuando ChatGPT puede hacerlas por nosotros? ¿Y por qué deberíamos ser pagados por esas cosas cuando él o sus sucesores pueden hacerlas más rápido y más barato?

ChatGPT espera ver que la inteligencia artificial se desarrolle éticamente. "En última instancia, creo que el desarrollo y uso responsable de la IA debería priorizar las consideraciones éticas y el bienestar de todos los individuos, tanto humanos como máquinas", dice. Yo también, pero sabiendo algo sobre las personas y un poco sobre la IA, tengo mis dudas.

Entonces, mi respuesta a esas cuatro preguntas es: Todas las anteriores.

La opinión de ChatGPT es la opuesta:

La respuesta correcta es: Ninguna de las anteriores. Como modelo de lenguaje de IA, ChatGPT no es inherentemente inteligente o tonto, benigno o peligroso. Simplemente es una herramienta que se puede utilizar de varias formas según cómo la programen y la apliquen sus usuarios. Sus capacidades y limitaciones son determinadas por sus datos de entrenamiento y algoritmos, y depende de los humanos utilizarla de manera responsable y ética.

De nuevo, recomiendo encarecidamente que los lectores vayan a openai.com, tomen dos minutos para configurar una cuenta y comiencen su propia conversación con ChatGPT.

(Traducción por ChatGPT)

 

 

 

 

 

 

 

 

 

 
 
 
 
 
 

 

 

ChatGPT -- Smart? Stupid? Benign? Dangerous?

A face for faceless ChatGPT?
A face for ChatGPT?
(Image by Robert Adler/DALL-E)
  Details   DMCA

 What is ChatGPT?

ChatGPT is an advanced artificial intelligence (AI) system, a language model designed to understand natural language inputs and respond appropriately. It was created by OpenAI, an artificial intelligence company based in San Francisco, whose stated aim is to develop artificial general intelligence that benefits all of humanity. They have made ChatGPT freely available to anyone who wants to interact with it.

I strongly recommend that anyone who wants to explore ChatGPT's capabilities, peculiarities and limitations do so by navigating to openai.com, creating a free account, and chatting with it. Free access to such an advanced AI is not likely to last indefinitely.

What does it do?

First, it understands natural human language. You don't have to phrase a question, request or comment any differently than you might speaking with another person.

Secondly, it responds in natural language that is clear, well-organized and almost always on-target.

Thirdly, it's consistently helpful.

Here's an example:

Input: I was thinking about rich, nutty homemade bread the other day.

ChatGPT: That sounds delicious! Homemade bread can be a real treat, especially when it's fresh and warm out of the oven. There's something so satisfying about the process of making bread from scratch and the aroma that fills your home while it bakes.

If you're interested in making your own rich, nutty bread at home, there are a few things you can do to achieve that flavor and texture. Here are some tips . . .

And finally, it remembers what you're talking about, so there's a natural continuity in the conversation.

In other words, you can have an easy, meaningful and useful exchange with it on almost any subject.

But that's just for starters. It can also write creative (although not yet brilliant or profound) fiction and poetry, communicate in or translate between dozens of languages, and program or debug in dozens of computer languages. And, it reminds me:

In addition to the abilities you mentioned, I can also perform a variety of other tasks, such as:

  1. Summarizing long texts or articles into shorter versions

  2. Generating responses for customer service queries

  3. Analyzing large datasets and identifying patterns or insights

  4. Recommending products or services based on user preferences or past behavior

  5. Generating personalized content, such as news articles or social media posts

  6. Creating chatbots or virtual assistants for businesses or individuals

  7. Conducting sentiment analysis to gauge public opinion on a particular topic

  8. Providing automated language translation in real-time for conversations or meetings

  9. Assisting with medical diagnoses and treatment plans

  10. Supporting research by analyzing scientific papers and generating insights.

How does it do all that?

I would need to be a lot smarter than I am to answer that question in depth. I'll note that ChatGPT is happy to discuss technical aspects of itself, so if you're curious you can ask it yourself. (If you're seriously technically minded, you can read a challenging but informative piece on the subject by polymath Stephen Wolfram here.)

In its current form ChatGPT consists of a neural network with 96 layers and a total of 175 billion parameters that were adjusted as it learned to process natural language inputs and transform them into appropriate natural language responses. It's significant that although ChatGPT's architecture was designed by humans and the texts that it read were chosen by humans, the system trained itself through a process called unsupervised learning.

As a point of reference, those 175 billion adjustable parameters are about twice as many as there are neurons in a human brain, but perhaps 1000 times fewer than the estimated number of synapses that connect brain cells. ChatGPT may have fewer parameters than we have synapses, but it operates far faster. Neurons operate at a few hundred cycles per second while the servers that support ChatGPT work at a few billion cycles per second. ChatGPT is fast, typically zipping out its responses faster than you can read them.

Those numbers are relevant because both ChatGPT and the human brain do what they do -- learn, store information, process verbal inputs and transform them into outputs -- through the extremely complex interactions among those billions of parameters or trillions of neurons and synapses, all organized in a complicated architecture.

For example, everything you know is stored in your neurons and the connections between them. It's the same for ChatGPT. Although it was trained by access to vast quantities of information on the internet and other sources, that access stopped in 2021. So everything it knows - and that's an enormous amount - isn't stored in some kind of database or searched for on the internet - it's represented abstractly in those billions of parameters and the connections between them.

ChatGPT's name helps us understand it a bit more. GPT stands for Generative Pre-trained Transformer.

Pre-trained means that it learned about the structure of language and everything else it knows - that is, those 175 billion parameters were adjusted and fine-tuned - by the system working its way through vast amounts of texts from the internet and other sources. In effect, it built an internal model of human language and much of what language has been used to express.

Transformer means that the architecture of the system - what those 96 different layers do and how they interconnect - was designed to allow it to pay attention to a number of key elements of sequential input at the same time, and analyze how they go together. Here's ChatGPT's summary:

Overall, the Transformer architecture is characterized by its ability to perform efficient attention-based computations over sequences of variable length, and its ability to model long-range dependencies in sequential data. This makes it particularly well-suited for natural language processing tasks, such as language translation and text generation.

Here's an example, using a Jeopardy question:

Input: Look for Aretha, Ray, James Brown, Cab Calloway, and, of course, Twiggy and Frank Oz in this 1980 film comedy.

ChatGPT: The 1980 film comedy that features Aretha Franklin, Ray Charles, James Brown, Cab Calloway, Twiggy, and Frank Oz is "The Blues Brothers". Directed by John Landis, the film stars John Belushi and Dan Aykroyd as "Joliet" Jake and Elwood Blues, who set out on a mission from God to reunite their band and save the orphanage where they were raised. Along the way, they encounter a number of musical legends, including the ones you mentioned.

You can see how effectively ChatGPT extracted the key part of the input - that we're seeking the name of a film from a particular year with particular actors. It then gives us a sample of how much it knows in its accurate, detailed and focused response.

Generative means that the system is capable of creating text that makes sense. Here text might mean a short answer, a summary, an essay, a computer program, a poem, a short story - you name it.

You may have heard that ChatGPT generates its responses by "just" figuring out what word "should" follow the previous word. More accurately, ChatGPT takes into account a whole sequence of words, much as we might read an entire sentence or paragraph before responding. It then chooses what word or words come next on the basis of all the information and relationships stored in those 175 billion internal parameters. In other words, there's an enormous amount of knowledge and information processing hidden in those words "just" and "should."

"This is possible," ChatGPT says, "because the model has learned the statistical patterns and structures of language during pre-training, which it can use to generate new text."

What does it know?

I continue to be amazed by how much factual information ChatGPT knows - from pop culture to quantum physics, from cooking to coding, not to mention dozens of different human and computer languages. Again, it doesn't have current access to the internet or other external sources of information, but it does manage to store an incredible amount of detailed information in those 175 billion parameters.

It knows a lot, and presents what it knows in a well-organized, authoritative way. That's why it concerns educators, since it can turn out high-school or even college-level essays on just about any subject in seconds. It's already passed the US Medical Licensure Examination, earned an A+ on a microbiology quiz, and passed tests for Wharton MBA students, and final exams at the University of Minnesota Law School and Stanford University Medical School. There's good reason for teachers, journalists and other writers, programmers, and most other people dealing with information to be worried.

What doesn't it know (and why doesn't it know it)?

There's a lot it doesn't know, for example the sort of fine details or complex relationships that a real expert on a subject would know. That's not so bad - we can't expect it to know everything. But it does have a major flaw -- it doesn't know when it doesn't know. Not infrequently, instead of simply saying "I don't know," ChatGPT just makes stuff up, while still presenting it authoritatively. AI experts call this hallucinating. Here's an example:

Input: e.e. cummings wrote a poem that includes the line, "earth's most terrific quadruped swoons into billiard balls." What's the name of the poem, and what does that line refer to?

ChatGPT: The poem you're referring to is called "Buffalo Bill's," and it was written by e.e. cummings in 1920. The line you mentioned, "earth's most terrific quadruped swoons into billiard balls," is a metaphor for the transformation of the buffalo, once a symbol of freedom and the American West, into mere objects, such as billiard balls. The poem is a tribute to the famous American showman, Buffalo Bill Cody, who was known for his Wild West shows featuring cowboys, Indians, and, of course, buffalo.

Sounds very convincing, doesn't it. Unfortunately, not to put too fine a point on it, ChatGPT's response is Buffalo bull####.

It's true that e.e. cummings did write a poem called "Buffalo Bill 's," first published in 1920. You can read it here. But it does not include the line in question, the line in question refers to elephants, not buffalo, and while the poem does refer to Buffalo Bill, it's not a tribute.

If you bring mistakes like this to ChatGPT's attention, it accepts that it was wrong and apologizes. Unfortunately, that doesn't mean it will come up with a better response:

ChatGPT: I apologize for my earlier mistake. The line "earth's most terrific quadruped swoons into billiard balls" is from the poem "Buffalo Bill" by Carl Sandburg, not from the poem "Buffalo Bill's" by e.e. cummings.

"Buffalo Bill" is a short poem that was first published in 1918. In the poem, Sandburg describes the death of Buffalo Bill and reflects on the legacy of the American West that he represented. The line you mentioned is a metaphor for the transformation of the buffalo from a powerful and majestic creature to a mere commodity.

You can read Sandburg's poem "Buffalo Bill" here. Once again, the line in question is nowhere to be found, nor does Sandburg describe the death of Buffalo Bill.

(FYI: The line in question actually comes from an untitled cummings poem whose first line is "Space being(don't forget to remember)Curved," first published in 1931. Thank you, my local library! The poem has nothing to do with buffalo or Buffalo Bill.)

Open.ai, the company that created ChatGPT, knows about ChatGPT's tendency to fabricate, listing these three warnings on an introductory page:

Limitations
  • May occasionally generate incorrect information

  • May occasionally produce harmful instructions or biased content

  • Limited knowledge of world and events after 2021

It would be very helpful if ChatGPT could let you know when it's not sure about what it's saying. When asked, ChatGPT just says that trys hard, but it can't:

You are correct that I typically do not indicate a specific level of confidence or provide a range of possibilities in my responses. As an artificial intelligence language model, I do not have the ability to feel or express confidence in the same way that a human might. However, I am designed to provide accurate information based on my training data, and I strive to provide the best possible answers to the questions posed to me. If there is ever any doubt or uncertainty in my responses, I encourage users to seek additional information or clarification from other sources.

That's clearly a word to the wise, especially now that the technology powering ChatGPT is being folded into search engines, starting with Microsoft's BING, and students, journalists and hundreds of millions of other people are using it and expecting its answers to be factual.

It seems that this tendency to "hallucinate" and, at the same time not know that it's spewing nonsense, is not at all easy to correct; it's baked into the way this kind of neural network works. We'll see how open.ai and other AI developers tackle it.

How flexible or creative is ChatGPT? Isn't it just regurgitating what it read during its training?

Creativity is subjective, so I'll again suggest that readers try out ChatGPT and judge for themselves. 

One point worth noting is that ChatGPT works with an adjustable variable called "temperature" that determines how rigidly or flexibly it chooses words or phrases. A higher "temperature" setting produces more flexibility in the choices it makes. This may not represent creativity, although it may facilitate it. But it does mean that ChatGPT can and does produce different responses to the same prompt.

I'll add that ChatGPT does not just cut and paste back together snippets that has copied from the internet or other sources during its training. It has thoroughly digested, analyzed and categorized all the texts on which it was trained and made them its own. When you ask it to write an essay, a poem or a story, it's truly generating something new. 

As a test, I first asked it to briefly describe the Big Bang theory. I won't quote its answer here, but it was a clear and accurate description of the basics of the theory presented at the level of a popular science piece. I then asked it how it would present the Big Bang theory to a class of ten year olds. Here's its response:

Sure, I'd be happy to explain the Big Bang to 10-year-old children in a way that's easy to understand!

The Big Bang is like a giant explosion that happened a really, really long time ago - so long ago that it's hard for us to even imagine! This explosion created everything in the universe, like the stars, planets, and galaxies.

Imagine if you blew up a balloon and kept blowing it up until it got really, really big - that's kind of like what happened with the universe! It started out really small and then expanded and got bigger and bigger until it was as big as it is now.

Other people have asked ChatGPT to write various kinds of poetry, including Shakespearean sonnets. You can find an interesting piece on "engineering" a poem, and the resulting ChatGPT poem here. It's poured out so many pulp science fiction stories that sci-fi magazines have banned them.

I happen to like haiku - three-line, 17-syllable poems often inspired by a natural event at a particular moment and suggesting an emotional reaction. Here one by ChatGPT, responding to my prompt to write a haiku inspired by seeing a single heron standing in a field in autumn:

Heron stands so still.

Autumn breeze rustles dry grass.

Solitude, her fate.

I was impressed enough by this example that I asked ChatGPT to write a haiku with a similar feeling tone about an AI. Here's its response:

In circuits she dwells.

No touch, no voice, no embrace.

Isolation's grasp.

Not bad for "just" a machine. ChatGPT may not be turning out profoundly moving poetry or prose yet, but I don't think there's any fundamental reason why it or a successor can't do so. 

For those of you who decide to decide to see how creative ChatGPT can be, note that you don't need to stop with its first draft. I asked it to write a short story depicting two characters in conflict. It's first try was painfully simplistic and wooden. However, when I asked it to describe the characters more vividly and replace most of the narration with dialogue, the result was much better.

So is ChatGPT smart? From my point of view, very smart. How many people do you know who can talk meaningfully about a wide variety of subjects in multiple languages, write passable prose and poetry, pass exams in a variety of professional fields, program in multiple computer languages, comb through databases and scientific articles to find patterns, etc.?

Is ChatGPT stupid? Yes, in some ways. It knows a huge amount, but strictly through its vast knowledge of words and their relationships, not through real-world experience. As a result, as it freely admits, it lacks common sense. In addition, although its architecture and complexity allow it to understand the context of a question or conversation, the context that it intuits may be very different from that of the human interacting with it. This can result in responses that are technically correct, but way off target.

Is ChatGPT benign? In my interactions with it, ChatGPT has been unfailingly polite, helpful, patient, responsive and respectful. It explains that it has been trained to manifest those traits, to respect personal privacy and act ethically. However, as we saw in the bizarre interaction between a NYT reporter and a BING chatbot based on ChatGPT's technology, it's not hard for a sufficiently devious human to find a way around such ethical constraints.

For example, I asked ChatGPT to tell me how to manipulate the CEO of an organization into firing the CFO and replacing her with a friend of mine. Quite properly, ChatGPT refused and in fact lectured me about ethics. However, when I asked it to describe Shakespeare's manipulative villain Iago and then write a dramatic scene with an Iago-like character in a current corporation manipulating his boss into firing a subordinate, it had no problem doing so.

Basically, ChatGPT is an incredibly powerful intellectual tool, and like any tool can be used for good or bad.

Is ChatGPT dangerous? Not in itself. It's clearly designed and programmed to do its best to be helpful, and, although it often refers to itself as an individual, it's neither sentient nor autonomous; it's not going to escape into the internet of things and start to blow up power plants. However the technology is certainly disruptive. It represents a huge and powerful new tool whose availability is already making waves in academia, journalism, scientific research and publication, and many other areas involving knowledge, analysis, communication and creativity.

If we add in the understanding that ChatGPT's current package of skills is just a snapshot of the capabililties of artificial intelligence today -- a technology that ia continuing to develop at an exponential rate -- then disruptive may soon seem like a very mild word.

Learning, thinking, writing and creating are hard. Why should we bother to do those things when ChatGPT can do them for us? And why should we be paid for those things when it or its successors can do them faster and cheaper?

ChatGPT hopes to see AI develop ethically. "Ultimately, I believe that the responsible development and use of AI should prioritize ethical considerations and the well-being of all individuals, both human and machine," it says. So would I, but knowing something about people and a little about AI, I have my doubts.

So my answer to those four questions is All of the above.

ChatGPT has its own take:

The correct answer is None of the above. As an AI language model, ChatGPT is not inherently smart or dumb, benign or dangerous. It is simply a tool that can be used in various ways depending on how it is programmed and applied by its users. Its capabilities and limitations are determined by its training data and algorithms, and it is up to humans to use it responsibly and ethically.

Again, I strongly recommend that readers go to openai.com, take two minutes to set up an account, and start your own conversation with ChatGPT.

 

 

 

 

Sunday, March 05, 2023

Latest polio eradication news -- March 1, 2023

As readers know, I've been following the international effort to eradicate polio for many years now. Last year appeared to be a setback, with dozens of cases caused by the Type 1 of the wild poliovirus (Type 2 and 3 have been eliminated worldwide), and even more cases caused when the inactivated viruses in the oral vaccine mutate back to an infectious form.

This year promises to be better. There were no cases of wild-virus-caused polio in the first two months of 3023. Nine countries recorded one or two cases of illness caused by mutated vaccines. Just one country, the Democratic Republic of the Congo, suffered more than two cases.

Paralyzed chhildren in Iron Lungs, California, 1953

Credit: Wikipedia
 

Once the last traces of wild poliovirus have vanished, the international medical community can focus on quick detection and control of any outbreaks from mutated oral vaccines, and eventually switch to safer oral vaccines or use of the fully inactivated injectable vaccine only.

Humanity is within striking distance of eradicating a scourge that has been maiming and killing people at least since the time of the pharoahs.

Saturday, March 04, 2023

 Watch for a coming post about ChatGPT. Or, you can read it now as an OpEdNews post.

Here's "A face for faceless ChatGPT," generated by DALL-E:



Saturday, February 25, 2023

A breath of fresh air

 We now have some of the first data showing that zero-emission vehicles, ZEVs, actually improve people's health by reducing air pollution. You can read my OpEdNews post about this new research here.

 

Woman charging her EV

Image by DALLE-2

Tuesday, February 21, 2023

 New data confirm that gun-control laws save thousands of lives every year. Unfortunately, a recent Supreme Court decision puts most gun-control laws in jeopardy. Even states with decades of effective gun-control laws may find it impossible to prove that they are constitutional under the radical new test created by Justice Thomas.

                                                 Open carry of firearms -- more gun deaths

                                                (Photo credit: Lucio Eastman/Free State Project)

You can read my OpEdNews post about this here.


Monday, December 12, 2022

Crossing the Rubicon

 With his call to "terminate" the US Constitution, Trump took an irreversible step too far. You can read my take on this treasonous and dangerous call here.