Estos hallazgos, publicados en la Royal Society Open Science, se ponen en contra del supuesto establecido de que la adquisición del lenguaje humano ocurre por pura naturaleza, es decir, sin esfuerzo. Según el estudio, los investigadores han calculado que desde la infancia hasta la edad adulta (los 18 años) absorbemos de forma aproximada 12.5 millones de bits de información sobre el lenguaje. Esto constituye unos 2 bits por minuto para poder adquirir el conocimiento lingüístico total. Al día, se absorben en la infancia 1000 bits de información
|
etiquetas: lenguaje , adquisición
royalsocietypublishing.org/doi/10.1098/rsos.181393
Es que por más que pienso, y desde luego el artículo no aclara, no consigo entender cómo se hace una equivalencia entre aprendizaje de idioma hablado y bits.
Hasta que no me lo aclaren, me reservo el derecho a pensar que esto es una gilipollez.
(Teoría que me acabo de sacar bajo la manga pero que en mi cabeza cuadra )
El propio artículo original reconoce ser especulativo.
Hay un problema básico: como no sabemos exactamente como el cerebro reconstruye la información, porque no sabemos como funciona, no podemos saber cuántos bits hacen falta para guardar esa información.
Es como decir, yo creo que para guardar una foto de 256x256 hacen falta 192K. Pero luego resulta que en formato jpg son 2Kb, y aquí lo que está pasando es que el cerebro está tratando de reconstruir la imagen original a partir de información parcial, rellenando los huecos faltantes en esas información.
Aún peor: hoy día tenemos algoritmos de machine learning que son capaces de imaginar partes faltantes de una imagen a partir de otras. Así que incluso en informática, cuando ahora vemos una imagen generada por una IA resulta difícil saber cuántos bits de información ha necesitado la IA para hacerlo.
Yo la verdad dudo mucho que el cerebro humano pueda medirse en bits, así que niego la mayor, niego el bit como unidad de medida de información cerebral. Es posible que incluso para decir cuánto sabe una IA el bit ya no tenga mucho sentido porque una red neuronal con los mismos bits puede saber más o menos que otra.
Necesitamos inventar una medida de conocimiento nueva, así que vuelvo a los ziripondios.
El tema es sumamente interesante, #0. Lo que pasa es que cuando se entra en terreno de la informática los informáticos solemos poner caras raras cuando se usan nuestras unidades de medida para cosas que no son informática.