Latest Posts:

Mostrando las entradas con la etiqueta logica. Mostrar todas las entradas
Mostrando las entradas con la etiqueta logica. Mostrar todas las entradas

17 de diciembre de 2012

Los videojuegos de lógica y acertijos modifican el cerebro


layton-jugarHace ya años que los videojuegos se han quitado el estigma de servir, únicamente, para divertirnos. Varios estudios han demostrado que no solo mejoran nuestra destreza con los dedos o hacen volar nuestra imaginación, sino que pueden llegar modular nuestro cerebro ayudándole a aprender mejor. Una reciente investigación española realizada con el videojuego El Profesor Layton ha señalado que hasta puede llegar a modificar su morfología y aumentar el volumen de materia gris cerebral. 
  
Hace unos meses un experimento llevado a cabo en la Universidad Estatal de Michigan, Estados Unidos, con 500 niños de doce años, certificó que quienes jugaban con videojuegos eran más creativos a la hora de escribir y dibujar. Otros estudios han certificado la mejora en el desarrollo de ciertas habilidades, como el pilotaje de aviones o la conducción de coches. Dos investigadores de la Universidad Autónoma de Madrid y de la Universidad Complutense de Madrid han ido un paso más allá y han analizado cómo influyen los videojuegos en la plasticidad del cerebro.

Para elaborar la investigación Roberto Colom, catedrático de psicología de la UAM y Mª Ángeles Quiroga, profesora de psicología de la UCM utilizaron un famoso juego de rompecabezas y acertijos, El Profesor Layton, para observar cómo cambiaba el cerebro de un grupo de voluntarios. En primer lugar se seleccionaron los sujetos: personas habituados al uso de la Nintendo DS pero que nunca hubieran jugado con ese videojuego específico. Posteriormente se evaluó la capacidad verbal, espacial y de razonamiento de los jugadores. Y finalmente se llevó a cabo el experimento propiamente dicho. Los voluntarios debían jugar a videojuego durante un mes un máximo de 16 horas en un control de laboratorio. En ese tiempo debían resolver acertijos, rompecabezas, jeroglíficos, problemas, etcétera, utilizando su inteligencia. Pasado este periodo se analizó qué cambios se habían producido en el cerebro gracias a resonancias magnéticas.

Aumento del volumen de materia gris

Tras el mes de juego, los científicos pudieron observar un cambio en el volumen de materia gris de los voluntarios, además de una mejora en la integridad de la sustancia blanca, lo que facilita la coordinación de distintas regiones cerebrales. También pudieron observar que pasado este mes, se había incrementado la conectividad en reposo de la red de neuronas lo cual preparaba al individuo para una futura actividad intelectual.

En otras palabras, como si de un gimnasio se tratara, tras un entrenamiento de 16 horas a lo largo de un mes jugando con El Profesor Layton, el cerebro de los voluntarios había cambiado, se había fortalecido. Como explica el propio Roberto Colom, "a nivel de inteligencia los factores internos son muy importantes, pero los externos pueden contribuir de manera muy positiva. Los videojuegos pueden potenciar el proceso de aprendizaje", concluye.

De hecho, según apunta la investigación llevada a cabo, tras la prueba los voluntarios habían mejorado tanto la comprensión verbal como la orientación topográfica, la planificación, el razonamiento, la percepción visual y el procesamiento visual y espacial.

El estudio de Colom y Quiroga confirma la plasticidad del cerebro, la capacidad de modulación por agentes externos y la importancia del aprendizaje y el "entrenamiento cerebral". Pero no solo eso, sino que corroboran los beneficios que producen los juegos de lógica e inteligencia, como El Profesor Layton, en el cerebro, tanto a nivel cognitivo como de fisionomía.
Vídeos: más información sobre el videojuego y la investigación.


Fuente:

Muy Interesante

12 de noviembre de 2012

Lógica y Matemáticas: ¿Dios existe?


Sea la frase: “Dios no existe o esta frase es falsa.”. La frase es una disyunción, formada por dos partes; la parte p1 es “Dios no existe”; la parte p2 es “esta frase es falsa”; la frase completa es “p1 ó p2″, donde ó simboliza la disyunción. La frase es cierta cuando p1 ó p2 (o ambas) lo son; es falsa cuando p1 y p2 (ambas) lo son. Supongamos que la frase es falsa; en ese caso p1 y p2 deben ser falsas; pero p2 es “esta frase es falsa”, resultaría cierta; por lo tanto, la frase no puede ser falsa. En consecuencia debe ser verdadera; en ese caso p1 ó p2 debe ser verdadera; pero p2 es “esta frase es falsa”, que resulta una afirmación falsa; al ser p2 falsa, siendo la frase completa verdadera, debe ser p1 cierta; es decir, Dios no existe.

En realidad esto no deja de ser una paradoja del tipo autorreferencial, como la de paradoja de Russell en teoría de conjuntos:

Russell, en rigor, plantea “consideremos el conjunto de todos los conjuntos que no son un elemento de sí mismos”. Preguntemos entonces: “¿Es este conjunto elemento de sí mismo?”. Si fuera elemento de sí mismo, no lo sería, y si no lo fuese, debería estar contenido en él mismo.

Fuente:

23 de agosto de 2011

Pensar en grupo nos vuelve más radicales o cómo 100 cabezas no siempre son mejor que 1

Estos días he estado visionado por televisión la visita del Papa a España o JMJ (¡juas!). Y he tomado notas. No porque el Papa me interese particularmente sino por las vibraciones sociológicas que pueden percibirse en cada fotograma del evento: cómo se comportan las personas, cómo la fe más irracional empuja a la gente que no encuentra solaz en otros sitios, cómo hincaban la rodilla los diferentes miembros del gobierno frente a un líder teocrático disfrazado que luego viajaba en una urna por la A-2, cosas así.

Pero sobre todo me sirvió para comprobar de nuevo que las personas, cuando están en grupo, se vuelven más radicales. Un buen ejemplo son las imágenes que visioné de la manifestación laica al toparse con los jóvenes católicos, mediando entre todos la policía más bruta que haya podido ver en los últimos años (exceptuando los desalojos de los Indignados en Plaza Cataluña). Y bueno, si bien me adscribo ideológicamente a uno de esos grupos (sólo a uno), los tres grupos me pareció que tropezaban en los mismos errores. Gritar hasta que se pone la vena gorda, por ejemplo, tal y como señala con su particular estilo Arturo Pérez Reverte en un reciente tweet: Un energúmeno con las venas del cuello hinchadas, desaforado, gritándole en la oreja a una muchacha asustada que besaba un crucifijo. Así no se llega demasiado lejos.

Estoy convencido de que muchos de los integrantes de los tres grupos (aunque la distribución no sea equitativa) son personas inteligentes y cultivadas. Sin embargo, algo sucede cuando la gente pertenece a un grupo fuertemente cohesionado. La gente parece entonces suspender el juicio y dejarse embargar por las pasiones más bajas.

Hay numerosos experimentos que sugieren esta inclinación. Por ejemplo, un estudio de principios de 1970 realizado por el graduado del MIT James Stoner, que determinó que la gente solía tomar decisiones más arriesgadas cuando formaba parte de un grupo.

En la primera parte del estudio, Stoner solicitó a varias personas que interpretaran el papel de un orientador, y entonces se les presentaron distintas situaciones en las que alguien se enfrentaba a un dilema: en ellas debían escoger cuál de las dos opciones ofrecidas era la mejor. Cada opción representaba un nivel de riesgo diferente.

Más tarde, Stoner dividió a los participantes en grupos de cinco personas. Los grupos tenían que hablar sobre las situaciones y alcanzar un consenso.

Los resultados demostraron claramente que las decisiones tomadas por los grupos tendían a ser más arriesgadas que las tomadas por los individuos. (…) Cientos de estudios posteriores han demostrado que este efecto no consiste en tomar decisiones arriesgadas en sí, sino en la polarización. En los estudios, ya clásicos, de Stoner, varios factores hicieron que el grupo tomase decisiones más arriesgadas, pero, en otros experimentos, los grupos llegan a ser más conservadores que los individuos. En resumen, formar parte de un grupo exagera las opiniones más extremas de las que tomarían ellos solos. Según la inclinación inicial de los individuos del grupo, la decisión final puede ser arriesgada en extremo o conservadora en extremo.

Esta tendencia puede tener serios efectos sociales, como sugirió el estudio de Myers y Bishop de 1971 publicado en Journal of Personality and Social Psychology titulado “Enchancement of Dominant Attitudes in Group Discussion”: si se reúne un grupo de personas con prejuicios raciales, toman decisiones aún más radicales sobre problemas de contenido racial.

Si se trata de un grupo de empresarios que están dispuestos a invertir en proyectos fallidos, estarán más dispuestos todavía a seguir tirando dinero en esa mala inversión, como sugería el estudio de Whyte “Escalating Commitment in Individual and Group Decision-Making: A Prospect Theory Approach”, publicado en 1993 en Organizational Behavior and Human Decision Proceses.

Tal y como señala Richard Wiseman:

Si juntamos a un grupo de adolescentes agresivos, aumenta la probabilidad de que la pandilla actúe de forma violenta. Si permitimos que unas personas con fuertes ideologías religiosas o políticas pasen tiempo juntas, se formarán puntos de vista aún más extremos y, a menudo, más violentos. El efecto surge incluso en Internet, donde los individuos que participan en las listas de discusión y chats expresan opiniones y actitudes más extremas de lo que es normal en ellos.

Puede que, entre otras razones, muchas de nuestras ideas que nos parecen raras, extremas o socialmente inaceptables, encuentre acomodo cuando nos rodeamos de personas que piensan como nosotros. Al expresar esos pensamientos, entonces animamos a los demás que compartir con nosotros sus sentimientos extremos.

Otros estudios demuestran que, comparados con los individuos, los grupos suelen ser más dogmáticos, más capaces de justificar acciones irracionales, más inclinados a ver sus acciones como morales y más proclives a desarrollar visiones estereotípicas de los otros. Además, cuando hay personas muy tenaces dirigiendo las discusiones del grupo, pueden presionar a los demás para que se conformen a él, alentando la autocensura y creando una ilusión de unanimidad.

En resumidas cuentas, que aquella frase que tanto me gusta del filósofo Gustavo Bueno parece tener apoyo empírico: 100 individuos, que por separado pueden constituir un conjunto distributivo de 100 sabios, cuando se reúnen pueden formar un conjunto atributivo compuesto por un único idiota.

Podéis leer más sobre la idiotez y el radicalismo de los grupos humanos en otros artículos como La mayoría se equivoca: matemáticamente comprobado o Si mucha gente cree una cosa no significa que ésta sea verdad: la disonancia cognitiva de los grupos.

Vía | 59 segundos de Richard Wiseman

Tomado de:

Xakata Ciencia

22 de agosto de 2011

Falacias Ad Populum y Ad Numerum

Ayer, una persona con la que discutía sobre las Jornadas Mundiales de la Juventud me dijo esto: “¿Cómo no puedes creer en Dios, cuando ves a tanta gente con fe reunida en Madrid.” Mi réplica fue explicarle las falacias Ad Populum y Ad Numerum, aunque creo que no sirvió de nada, ya que como dijo el malogrado Carl Sagan: No puedes convencer a un creyente de nada porque sus creencias no están basadas en evidencia, están basadas en una enraizada necesidad de creer.

La falacia lógica llamada Ad Populum (o recurso al pueblo) consiste en afirmar que una proposición es cierta porque así lo cree la mayoría la población, la mayoría de un grupo, etc. Esta falacia está muy relacionada con la falacia Ad Numerum, que consiste en decir que cuanto más gente sostenga o crea en una proposición, más posibilidades de ser cierta tiene. Las personas que manipulan basándose en estas falacias suelen emplear encuestas o gráficos, a menudo con colores, muy bonito todo. Pero no por ello tiene que ser verdadero.

El que una idea sea compartida por la mayoría o por un elevadísimo número de personas no prueba nada acerca de su veracidad o falsedad. ¡Sólo prueba que es compartida por muchas personas! Estas falacias suelen ir acompañadas de argumentos, igualmente sin validez, como “siempre se ha hecho así” o “todo el mundo lo hace”.


Ejemplos de estas falacias son: "Solamente digo que miles de personas creen en el poder de las pirámides, así que debe haber algo en eso", "Por miles de años la gente ha creído en Jesús y en la Biblia. Esta creencia ha tenido un gran impacto en sus vidas. ¿Qué evidencia más necesita de que Jesús es hijo de Dios? ¿Está tratando de decirme que toda aquella gente es tonta y está equivocada?", “Todo el mundo estaba saqueando la ciudad así que yo también lo hice”, etc.

También me gustaría mencionar otros ejemplos como Copérnico o Darwin. Antes de Copérnico (quitando alguna excepción como Aristarco de Samos) todo el mundo pensaba que la Tierra era el centro del universo, y que todos los astros giraban entorno a ella. Copérnico, un solo hombre frente a millones de personas, ¡pero con las evidencias matemáticas de su parte! demostró que esto no es así. Antes de Darwin nadie pensaba que el hombre estaba relacionado con los monos. Darwin, demostró (basándose en las evidencias encontradas durante su viaje en el Beagle) que la práctica totalidad de la población se equivocaba.

Estas falacias me plantean una duda: ¿Estará relacionada la falacia del Ad Populum y la del Ad Numerum con la causa de que, precisamente la iglesia realice actos tan multitudinarios como este de las Jornadas Mundiales de la Juventud u otros con bastante gente como las misas dominicales?, ¿Será que esto permite a los líderes religiosos asegurar la fe de sus creyentes? Las personas que asisten a las misas o a las JMJ de Madrid deben sentirse cómodas ya que el resto de la gente comulga (¡nunca mejor dicho!) con sus ideas. ¿Te da eso más fuerza para creer? Soy un proyecto de científico y no acostumbro (a diferencia de otros) a afirmar hipótesis de las que no tengo bastantes pruebas. Simplemente hago una reflexión.

Antes mencioné a Carl Sagan, y me gustaría volver a hacerlo: “Una de las lecciones más tristes de la historia es ésta: si se está sometido a un engaño demasiado tiempo, se tiende a rechazar cualquier prueba de que es un engaño”.

La verdad, como bien dice David Osorio en su blog, no es democrática. La verdad no cambia porque muchas personas crean o no en ella. La verdad no depende ni de una persona sola, ni tampoco de la mayoría de personas. La verdad depende de las evidencias, de la lógica y de la razón, no del número de personas que crean, o no, en ella.

ENLACES:

BIBLIOGRAFÍA:
- Sagan, Carl. “La Tierra y sus demonios, la ciencia como luz en la oscuridad”

Tomado de:

Eres de Ciencias

31 de julio de 2011

Confusión entre necesario y suficiente: el caso de la diferenciabilidad


Especial: Matemáticas

La distinción entre condición necesaria y condición suficiente es un tema muy costoso de entender para mucha gente, tengan los estudios que tengan. En principio, partiendo de la denominación de cada una de estas condiciones es sencillo distinguirlas, pero en la práctica hay muchas ocasiones en las que la gente se lía bastante con ello. Ante una condición necesaria mucha gente piensa que lo que está viendo es una condición suficiente, y viceversa. Y hasta hay ocasiones en las que teniendo una condición solamente necesaria (o solamente suficiente) se cree que en realidad es de los dos tipos, necesaria y suficiente.

En general esto ocurre con las implicaciones:

Si es cierto A, entonces es cierto B

Que esto ocurra no significa ni Si es cierto B, entonces es cierto A ni Si no es cierto A, entonces no es cierto B, pero en muchos casos se piensa que sí. Voy a poner un sencillo ejemplo, que es el más frecuentemente uso con mis alumnos:

Esta claro que Si llueve, entonces mi patio se moja (Si es cierto A, entonces es cierto B), ¿verdad? ¿Es cierto entonces que Si mi patio se ha mojado, entonces es que ha llovido (Si es cierto B, entonces es cierto A)? Claramente no, ya que mi patio puede estar mojado porque lo he hecho yo con una manguera y no por haber llovido. ¿Y es cierto que Si no llueve, entonces mi patio no se moja (Si no es cierto A, entonces no es cierto B)? Pues tampoco, por lo mismo que en el caso anterior: he podido mojarlo yo sin que haya llovido.

La primera parte de la primera frase, Si llueve,…, es una condición suficiente para que mi patio se moje, pero no una condición necesaria. Es decir, es suficiente que llueva para que se moje mi patio, pero no es necesario que llueva para que ello ocurra.

Como he comentado antes, la confusión entre estos dos tipos de sentencias se produce con mucha frecuencia. Y no solamente entre gente sin estudios, sino también entre estudiantes de instituto, de universidad, y hasta entre profesores. De hecho el ejemplo que voy a poner ahora surgió a partir de una confusión de una persona que da clase en una universidad (doy fe de ello, ya que se puede decir que he asistido en primera persona a dicho error). Vamos a dar alguna idea sobre el concepto de diferenciabilidad y a partir de ahí introduciremos el resultado que puede causar confusión, que después explicaremos.

El caso de la diferenciabilidad

El concepto de diferenciabilidad de funciones de varias variables es uno de los conceptos que más errores provocan entre los estudiantes de cálculo en varias variables. En esencia es análogo al de derivabilidad en funciones de una variable, pero el paso de una variable a más de una variable hace que la cosa se complique.

Aunque el concepto es más general, vamos a hablar solamente de funciones escalares de dos variables, es decir, funciones f: \mathbb{R}^2 \rightarrow \mathbb{R}. En este caso, la definición de diferenciabilidad en un punto es la siguiente:

Definición: (diferenciabilidad en un punto)

Dada f: A \subset \mathbb{R}^2 \rightarrow \mathbb{R} y un punto (a,b) \in int(A), la función f(x,y) es diferenciable en el punto (a,b) si el límite

\displaystyle{\lim_{(x,y) \to (a,b)} \cfrac{f(x,y)-f(a,b)-f_x(a,b) \cdot (x-a)-f_y(a,b) \cdot (y-b)}{\sqrt{(x-a)^2+(y-b)^2}}}

vale cero.

Nota: f_x y f_y denotan las derivadas parciales respecto de x y de y respectivamente.

Por comentarlo, esto es equivalente a que la función admita plano tangente único en el punto (a,b).

Hay varias condiciones necesarias relacionadas con la diferenciabilidad de una función escalar en un punto, como por ejemplo:

  • Es necesario que f sea continua en (a,b) para que sea diferenciable en ese punto.
  • Es necesario que existan las derivadas parciales de f en (a,b) para que sea diferenciable en ese punto.
  • Es necesario que existan las derivadas parciales de f en (a,b) en la dirección de cualquier vector unitario para que sea diferenciable en ese punto.

Que estas sean condiciones necesarias significa que si alguna de ellas no se cumple, entonces la función no es diferenciable en (a,b). Ahora, ninguna de ellas es condición suficiente, ya que ninguna de ellas implica que la función sea diferenciable en (a,b).

El resultado estrella de este artículo se conoce como condición suficiente de diferenciabilidad, y su enunciado es el siguiente:

Teorema: (condición suficiente de diferenciabilidad)

Si f: A \subset \mathbb{R}^2 \rightarrow \mathbb{R} es continua en un punto (a,b) \in int(A) y las derivadas parciales de f, f_x, \; f_y, existen y son continuas en (a,b), entonces f es diferenciable en (a,b).

No nos vamos a detener en demostrar este teorema. Dicha demostración aparece, por ejemplo, en este post del blog The Unapologetic Mathematician o en la página 168 del libro de Análisis Matemático de Carlos Ivorra (Teorema 4.11)|1|.

Como se aprecia en la denominación de este resultado, ésta es una condición suficiente para que la función sea diferenciable en ese punto. Es decir, basta que se cumplan estas condiciones para asegurar que la función es diferenciable en el punto. Pero, como ya podréis saber, no es una condición necesaria, es decir, no es necesario que se cumplan todas las condiciones que plantea el enunciado para que una función sea diferenciable en un punto.

Esto significa que hay funciones que son diferenciables en un punto, pero que no cumplen todas las hipótesis de ese enunciado. Concretamente no cumplen que las derivadas parciales sean funciones continuas en el punto en cuestión (ya que la continuidad de la función y la existencia de las derivadas parciales en ese punto son condiciones necesarias para la diferenciabilidad).

Y además no es demasiado complicado encontrar ejemplos de funciones de este estilo. Una de ellas es:

f(x,y)=\begin{cases} (x^2+y^2) \sin{ \left ( \frac{1}{\sqrt{x^2+y^2}} \right )} & \mbox{, si } (x,y) \ne (0,0) \\ 0 & \mbox{, si } (x,y)=(0,0) \end{cases}

Vamos a analizar qué ocurre con esta función en el punto (0,0) en relación a lo comentado anteriormente:

  • f(x,y) es claramente continua en (0,0), ya que

    \displaystyle{\lim_{(x,y) \to (0,0)} f(x,y)=0 \cdot \mbox{acotada}=0}

    y f(0,0)=0.

  • Sus dos derivadas parciales existen en (0,0). Calculemos una de ellas:

    \cfrac{\partial f}{\partial x} (0,0)=\displaystyle{\lim_{h \to 0} \cfrac{f(0+h,0)-f(0,0)}{h}=\lim_{h \to 0} \cfrac{h^2 \cdot \sin{(\frac{1}{h})}-0}{h}=} \displaystyle{\lim_{h \to 0} h \cdot \sin{\left ( \frac{1}{h} \right )}=0 \cdot \mbox{acotada}=0}

    Por tanto la derivada parcial de f respecto de x en el punto (0,0) existe y vale cero. Si calculamos la derivada de f respecto de y en (0,0) vemos que también existe y, en este caso, también vale cero.

  • Estudiemos ahora la continuidad de las derivadas parciales. Bueno, en realidad solamente lo haremos con la de x. Si calculamos esta derivada parcial para (x,y) \ne (0,0) obtenemos lo siguiente:

    \cfrac{\partial f}{\partial x} (x,y)= \ldots =2x \; \sin{\left ( \frac{1}{\sqrt{x^2+y^2}} \right )}-\cfrac{x}{\sqrt{x^2+y^2}} \; \cos{\left ( \frac{1}{\sqrt{x^2+y^2} } \right )}

    Si unimos esta información con el valor de dicha derivada parcial en (0,0) obtenemos la función derivada parcial de f respecto de x como función a trozos:

    \cfrac{\partial f}{\partial x} (x,y)=\begin{cases} 2x \; \sin{\left ( \frac{1}{\sqrt{x^2+y^2}} \right )}-\cfrac{x}{\sqrt{x^2+y^2}} \; \cos{\left ( \frac{1}{\sqrt{x^2+y^2} } \right )} & \mbox{, si } (x,y) \ne (0,0) \\ 0 & \mbox{, si } (x,y)=(0,0) \end{cases}

    Para que esta función sea continua en (0,0) debe existir

    \displaystyle{\lim_{(x,y) \to (0,0)} \cfrac{\partial f}{\partial x} (x,y)}

    y además debe valer cero. Calculando ese límite pasando a coordenadas polares obtenemos:

    \displaystyle{\lim_{r \to 0} \left ( 2r \; \cos{(\theta)} \; \sin{\left (\frac{1}{r} \right )}- \cos{(\theta)} \; \cos{\left ( \frac{1}{r} \right )} \right )}

    donde podemos ver que el valor del segundo término depende de \theta, por lo que el límite no existe. En consecuencia:

    \cfrac{\partial f}{\partial x} (x,y) no es continua en (0,0).

    De forma análoga puede verse que la otra función derivada parcial tampoco es continua en (0,0).

  • Interpretando mal la condición suficiente de diferenciabilidad podríamos pensar que esto asegura que la propia función f(x,y) no es diferenciable en (0,0), pero en realidad sí lo es. Lo vemos con la definición que dimos unos párrafos antes:

    \displaystyle{\lim_{(x,y) \to (0,0)} \cfrac{f(x,y)-f(0,0)-f_x(0,0) \cdot x-f_y(0,0) \cdot y}{\sqrt{x^2+y^2}}=\lim_{(x,y) \to (0,0)} \cfrac{(x^2+y^2) \; \sin{ \left (\frac{1}{\sqrt{x^2+y^2}} \right )}}{\sqrt{x^2+y^2}}=}

    de donde, operando, llegamos a:

    \displaystyle{=\lim_{(x,y) \to (0,0)} \sqrt{x^2+y^2} \; \sin{ \left (\frac{1}{\sqrt{x^2+y^2}} \right )}=0 \cdot \mbox{acotada}=0}

    Como el límite de la definición es cero, la función f(x,y) es diferenciable en el punto (0,0), aunque las derivadas parciales no son continuas en ese punto.

En consecuencia, si tenemos una función continua en un punto, cuyas derivadas parciales existen en dicho punto, pero las funciones derivada parcial no son continuas en él, no podremos afirmar con total seguridad que la función no es diferenciable en ese punto, ya que hay funciones para las que esto es cierto, las funciones polinómicas por poner un ejemplo, y funciones para las que no, como la que hemos estudiado anteriormente o esta otra que me proporcionó Tito Eliatron:

f(x,y)=\begin{cases} x^2 \sin{ \left ( \frac{1}{x} \right )}+y^2 \sin{ \left ( \frac{1}{y} \right )} & \mbox{, si } x \ne 0,y \ne 0 \\ 0 & \mbox{, si } x=0 \mbox{ o } y=0 \end{cases}

Y sí, una persona que da clase de cálculo en varias variables (entre otras cosas) cometió este error: interpretar como condición necesaria este teorema, que en realidad solamente es condición suficiente. Comentó a sus alumnos que si alguna de las funciones derivada parcial no era continua en un punto, entonces la función no era diferenciable en ese punto (hecho que hemos visto que es falso), provocando en ellos una gran confusión al chocar frontalmente esto con los conocimientos que se les había proporcionado en las clases de apoyo. Menos mal que al final conseguimos encauzar esta situación. Y hasta aquí puedo leer…


|1|: Un comentario sobre la condición suficiente de diferenciabilidad en el libro de Ivorra y en muchos otros textos. En el enunciado que yo he propuesto se dice que f debe ser continua en (a,b), pero en el libro de Ivorra (y, como digo, en muchos otros) no se pide explícitamente esta hipótesis. Pero, por otra parte, hemos comentado que la continuidad de f en el punto en cuestión es necesaria (ya que si no es continua en un punto, entonces no es diferenciable en ese punto). ¿Quién nos explica todo esto?


¿Conocéis más casos de este tipo que merezca la pena reseñar?

Fuente:

Gaussianos
google.com, pub-7451761037085740, DIRECT, f08c47fec0942fa0