lunes, 14 de diciembre de 2015
lunes, 19 de octubre de 2015
La sociedad del Conocimiento.
La
aldea global
El
numero de usuarios de Internet ha aumentado constantemente,
proporcionando acceso a porciones enteras de la poblacion a el
intercambio de conocimientos, valores, costumbres, creencias y
cultura con seres humanos de distintos países.
Una
característica del mundo actual es la tendencia a la
globalización... Se trata de un proceso que se impone debido a la
mayor comunicación entre las diversas partes del mundo, llevando
prácticamente a la superación de las distancias, con efectos
evidentes en campos muy diversos.
La
inequidad en el acceso a este tipo de informacion, ha generado
exclusion de ciertos sectores poblacionales, relacionado con su nivel
socioeconómico.
En
otros casos, el choque cultural ha provocado la pérdida del sentido
de la realidad que representa la relativización de la propia cultura
al compararla con otras culturas que en ocasiones tienen valores
opuestos.
No
obstante, como deciamos al iniciar este ensayo, la proporción que
ocupan los servicios de internet y las tecnologías relacionadas en
la economía mundial, en la educación y en general en todas las
expresiones de la vida de las naciones es cada vez más grande.
Influyendo poderosamente en la economía y en las decisiones
económicas.
Imagen:
penetracion del internet por paises.
La
sociedad del Conocimiento.
En
un caso tras otro, el movimiento hacia la computarización y la
digitización significa que muchas formas culturales de repente se
han licuado, perdiendo su forma anterior mientras se las modifica
para su expresión computarizada. A medida que las nuevas formas se
solidifican, tanto los artefactos como la textura de las relaciones
humanas que los rodea resultan muy a menudo ser diferentes de todo lo
preexistente. Este proceso se convierte en un vasto y permanente
experimento, cuyas ramificaciones a largo plazo nadie comprende en
plenitud.
La
noción sociedad de conocimiento tiene sus orígenes en los años
1960 cuando se analizaron los cambios en las sociedades industriales
y se acuñó la noción de la sociedad post-industrial. Así, por
ejemplo, el sociólogo Peter F. Drucker pronosticó la emergencia de
una nueva capa social de trabajadores de conocimiento (P.F. Drucker
1959) y la tendencia hacia una sociedad de conocimiento (Drucker
1969). Este tipo de sociedad está caracterizada por una estructura
económica y social, en la que el conocimiento ha sustituido al
trabajo, a las materias primas y al capital como fuente más
importante de la productividad, crecimiento y desigualdades sociales
(véase Drucker 1994).
Sin
embargo, más conocido es el trabajo de D. Bell (1973; 2001) sobre la
sociedad post-industrial. Este concepto expresó la transición de
una economía que produce productos a una economía basada en
servicios y cuya estructura profesional está marcada por la
preferencia a una clase de profesionales técnicamente cualificados.
El conocimiento teórico se ha convertido, según este enfoque, en la
fuente principal de innovación y el punto de partida de los
programas políticos y sociales. Este tipo de sociedad está
orientado hacía el progreso tecnológico y la evaluación de la
tecnología y se caracteriza por la creación de una nueva tecnología
intelectual como base de los procesos de decisión.
En
esta época, hasta el final de los años 1970, el análisis de los
cambios en la sociedad moderna resaltó tres aspectos:
-La
expansión de las actividades de investigación estatales y privadas
era la base principal de la cientificación de una serie de sectores
industriales. En esta diagnosis se reflejó la expansión histórica
de los gastos en I+D que se habían producido en la post-guerra.
-Paralelamente
a la expansión de los sectores de servicios, se incrementaron las
actividades económicas basadas en el conocimiento.
Con
la importancia creciente del conocimiento teórico creció también
el peso económico de las actividades basadas en el conocimiento.
-La
estructura profesional estaba marcada por los trabajadores de
conocimiento profesionalizado y con una cualificación académica:
Bell (2001) estimó que alrededor de una cuarta parte de la población
pertenecía a esta nueva clase de conocimiento, en la que se incluyó
a los empleados con un diploma universitario o de unа escuela
superior, a los empleados y los funcionarios de altas categorías y a
los empresarios.
Estos
análisis apuntaron, por lo tanto, a una sociedad cientificada,
academizada y centrada en los servicios diferenciada de la sociedad
industrial que, a su vez, estaba caracterizada por el conocimiento
experimental, el predominio de los sectores industriales, las
actividades manuales y el conflicto entre capital y trabajo.
El
concepto de ‘sociedad del conocimiento’ hace referencia, por lo
tanto, a cambios en las áreas tecnológicas y económicas
estrechamente relacionadas con las Tecnologias de Informacion y
Conocimiento , en el ámbito de planificación de la educación y
formación, en el ámbito de la organización (gestión de
conocimiento) y del trabajo (trabajo de conocimiento).
El
conocimiento será cada vez más la base de los procesos sociales en
diversos ámbitos funcionales de las sociedades. Crece la importancia
del conocimiento como recurso económico, lo que conlleva la
necesidad de aprender a lo largo de toda la vida. Pero igualmente
crece la conciencia del no-saber y la conciencia de los riesgos de la
sociedad moderna.
El
concepto de la ‘sociedad del conocimiento’ llama la atención
sobre el hecho de que los procesos socio-económicos cobran una nueva
calidad porque el conocimiento se convierte en el factor de
producción más importante. En este sentido, se está hablando de un
nuevo modo de producción, dado que el capitalismo sigue siendo el
principio dominante del sistema económico actual[11] y no se oculta
el riesgo de que aparezcan nuevas formas de exclusión social
relacionadas con el conocimiento. Sin embargo, el término usado como
visión política parece que promete una sociedad más equilibrada y
más justa en que cada uno puede esperar que en el futuro vaya a
recibir más, siempre y cuando realice los esfuerzos necesarios.[12]
En este sentido, se trata de una proyección al futuro del objetivo
de reducir las injusticias sociales (véase Castel 2000. p. 326). Los
riesgos de exclusión social en la sociedad del conocimiento están
relacionados con el acceso a la información y al conocimiento, y con
los efectos de la globalización socioeconómica.
Karsten
Krüger
Dr.
en Sociología
Dep.
de Geografía Humana
Universidad
de Barcelona
EL
CONCEPTO DE 'SOCIEDAD DEL CONOCIMIENTO'
5. El internet y la era de la informacion
5.
El internet y la era de la informacion
El
ciberespacio.
Internet
tuvo un origen militar que data del 1969, cuando la Agencia de
Proyectos para Investigación Avanzada (Advanced Research Projects
Agency – ARPA) del Departamento de Defensa de los Estados Unidos
conectó cuatro sistemas de cómputos geográficamente distantes en
una red que se conoció como ARPAnet.
Pero,
si bien la idea original estaba intrínsecamente ligada a la
seguridad militar, su evolución e implementación tuvieron lugar
alrededor del mundo académico. La misma red en experimentación
sirvió para conectar a los científicos desarrollándola y ayudarlos
a compartir opiniones, colaborar en el trabajo y aplicarla para fines
prácticos. Pronto, ARPAnet conectaría todas las agencias y
proyectos del Departamento de Defensa de los E.U.A. y para 1972 se
habían integrado ya 50 universidades y centros de investigación
diseminados en los Estados Unidos.
Eventualmente
la Fundación Nacional de Ciencia (National Science Foundation en
inglés ó NSF), entidad gubernamental de los Estados Unidos para el
desarrollo de la ciencia se hizo cargo de la red, conectando las
redes que luego darían lugar a la red de redes que hoy llamamos
Internet.
La
World Wide Web fue inventada en 1989 por un informático del CERN
(Organización Europea de Investigación Nuclear) llamado Tim
Berners-Lee. Era un sistema de hipertexto para compartir información
basado en Internet, concebido originalmente para servir como
herramienta de comunicación entre los científicos nucleares del
CERN. Tim Berners-Lee había estado experimentando con hipertexto
desde 1980, año en que programó Enquire, un programa para almacenar
piezas de información y enlazarlas entre ellas. Enquire se ejecutaba
en un entorno multiusuario y permitía acceder a varias personas a
los mismos datos. Tim Berners-Lee entregó su propuesta al CERN en
1989, en septiembre de 1990 recibió el visto bueno y junto con
Robert Cailliau comenzó a escribir el nuevo sistema de hipertexto. A
finales de 1990 el primer browser de la historia, WorldWide Web, ya
tenía forma.
Los
documentos necesitaban un formato que fuera adecuado para su misión.
En aquella época casi todo el mundo utilizaba TeX y PostScript, pero
éstos eran demasiado complicados teniendo en cuenta que debían ser
leídos por todo tipo de computadoras, desde la terminales tontas
hasta las estaciones de trabajo gráficas X-Windows. Así, tanto el
lenguaje de intercambio (HTML), como el protocolo de red (HTTP) se
diseñaron para ser realmente muy simples.
HTML
son las siglas de "HyperText Mark-up Language". "Mark-up"
es un término de imprenta que significa el conjunto de instrucciones
estilísticas detalladas escritas en un manuscrito que debe ser
tipografiado. Así, HTML podría ser traducido como "Lenguaje de
Formato de Documentos para Hipertexto". HTML es una aplicación
de SGML, un lenguaje muy general para definir lenguajes de formato de
documentos.
A
principios de 1993 había alrededor de 50 servidores. Existían
básicamente dos tipos de browsers: el original, gráfico, pero sólo
para plataformas NeXT, y el browser en modo de línea, preparado para
cualquier plataforma pero muy limitado y muy poco atractivo. En
Febrero se lanzó la primera versión alfa del navegador "Mosaic
for X", desarrollado en el NCSA (National Center for
Supercomputing Applications). Funcionaba en X Windows, que era una
plataforma popular entre la comunidad científica. En Abril el
tráfico de la WWW era el 0,1% del total de Internet. El CERN
declaraba la WWW como tecnología de acceso gratuito. En septiembre
ya había versiones de Mosaic para PC y Macintosh. El tráfico
alcanzaba el 1% de todo el tráfico de Internet y había más de 500
servidores. Es el comienzo del crecimiento explosivo de la Web. A
finales del 94 ya había más de 10.000 servidores y 10 millones de
usuarios. En 1997, más de 650.000 servidores. Y en 2012 habia más
de 25 millones.
El advenimiento del microcosmos
Название
книги: Microcosm The Quantum Revolution In Economics And
Technology . Pagina 30
Автор:
Gilder, George -
Ключевые
слова: Filosofia Ensayo
The
“informativeness” of subatomic matter is the key to modem
electronics. Because the world of the microcosm consists not of inert
and opaque solids but of vibrant, complex, and comprehensible fields,
it constitutes a useful arena for modern information technology. It
is because there is so much analogical information in the microcosm
that the microcosm is a uniquely powerful medium for information.The
quantum-regulated movement of electrons across quantum-mapped
crystalline paths epitomizes information technology, and in-formation
technology epitomizes the quantum era.
In
the atom of information, this era acquires its definitive symbol.
What was once a blank solid is now revealed in part as information,
what was once an inert particle now shines with patterns and
probabilities, what was once opaque and concrete is now a transparent
tracery of physical laws. Far from plunging reality into clouds,
quantum theory makes the universe radically more intelligible. The
new science does not estrange human beings from their environment.
Since thought is the most distinctly human power, the quantum world
is actually more anthropomorphic than the world of Newtonian masses
and forces.
A
more intelligible universe, penetrable by the human mind, endows
people with greater power to create wealth. But it also radically
changes the way wealth is created. Throughout previous human history,
the creation of wealth depended chiefly upon the extraction,
transport, combination, and modification of heavy materials against
the resistance of gravity, the constraints of entropy, and the
constrictions of time and space. When things are large and approached
out-side-in, it is expensive to move and manipulate them. Their costs
derive from the weight, rarity, entropy, and resistance of their
matter. But small things, virtually devoid of matter, move less like
weights than like thoughts. In the microcosm, the costs of fuel and
materials decline drastically; the expense devolves from matter to
mind. Just as quantum science overthrew Newtonian matter in the
explanation of the universe, the quantum economy overthrows Newtonian
matter in the creation of new wealth.
Moore's law.
When
G. Moore made his prediction, the number of transistors in a single
chip was roughly 32 and today there are approximately half a billion
transistors integrated on a single microprocessor.
The
April 19, 1965 Electronics magazine was the 35th anniversary issue of
the publication. Located obscurely between an article on the future
of consumer electronics by an executive at Motorola, and one on
advances in space technologies by a NASA official is a less than four
page (with graphics) article entitled, "Cramming more components
onto integrated circuits," by Gordon E. Moore, Director,
Research and Development Laboratories, Fairchild Semiconductor. Moore
had been asked by Electronics to predict what was going to happen in
the semiconductor components industry over the next 10 years -- to
1975. He speculated that by 1975 it was possible to squeeze as many
as 65,000 components on a single silicon chip occupying an area of
only about one-fourth a square inch. His reasoning was a log-linear
relationship between device complexity (higher circuit density at
reduced cost) and time: "The complexity for minimum component
costs has increased at a rate of roughly a factor of two per year.
Certainly over the short term this rate can be expected to continue,
if not to increase. Over the longer term, the rate of increase is a
bit more uncertain, although there is no reason to believe it will
remain nearly constant for at least 10 years." (Moore 1965)
This
was an empirical assertion, although surprisingly it was based on
only three data points.
Officially,
Moore's Law states that circuit density or capacity of semiconductors
doubles every eighteen months or quadruples every three years. It
even appears in mathematical form:
(Circuits
per chip) = 2(year-1975)/1.5
In
1995 Moore compared the actual performance of two device categories
(DRAMs and microprocessors) against his revised projection of 1975.
Amazingly, both device types tracked the slope of the exponential
curve fairly closely, with DRAMs consistently achieving higher
densities than microprocessors over the 25 year period since the
early-1970s. Die sizes had continued to increase while line widths
had continued to decrease at exponential rates consistent with his
1975 analysis.
The
scaling of MOSFETs, Moore’s law, and ITRS.
http://userweb.eng.gla.ac.uk/fikru.adamu-lema/Chapter_02.pdf
19.10.2015.
miércoles, 14 de octubre de 2015
El primer microprocesador
El
primer microprocesador
The
planar process was a logical outgrowth of the diffusion and oxide
masking process. Planarization was the creation of physicist Jean
Hoerni of newly-formed Fairchild Semiconductor. Hoerni observed the
production limitations of conventional 3-dimensional transistor
designs (e.g., the "mesa" transistor). Hoerni reasoned that
a design based on a "plain" would be superior. Thus, the
planar transistor, as the name implies, was flat. Flattening the mesa
enabled electrical connections to be made, not laboriously by hand,
but by depositing an evaporated metal film on appropriate portions of
the semiconductor wafer. Using a lithographic process of a series of
etched and plated regions on a thin, flat surface or wafer of
silicon, the "chip" was born out of the planar transistor.
Like the printing process itself, the planar process allowed for
significantly greater rates of production output at even higher
yields.
More
importantly, the planar process enabled the integration of circuits
on a single substrate since electrical connections between circuits
could be accomplished internal to the chip. Robert Noyce of Fairchild
quickly recognized this. As Gordon Moore recalls:
"When
we were patenting this [planar transistor] we recognized it was a
significant change, and the patent attorney asked us if we really
thought through all the ramifications of it. And we hadn't, so Noyce
got a group together to see what they could come up with and right
away he saw that this gave us a reason now you could run the metal up
over the top without shorting out the junctions, so you could
actually connect this one to the next-door neighbor or some other
thing."
Fairchild
introduced the first planar transistor in 1959 and the first planar
IC in 1961. Moore views the 1959 innovation of the planar transistor
as the origin of "Moore's Law."
Perhaps
more than any other single process innovation, planarization set the
industry on its historical exponential pace of progress. As one early
industrial technologist noted, "The planar process is the key to
the whole of semiconductor work." George Gilder's account in his
1989 treatise, Microcosm, is more eloquent:
"Known
as the planar integrated circuit, Fairchild's concept comprised the
essential device and process that dominates the industry today. . .
Ultimately it moved the industry deep into the microcosm..."
Bob Schaller. The Origin, Nature, and Implications of "MOORE'S
LAW" The Benchmark of Progress in Semiconductor Electronics.
1996.
http://research.microsoft.com/en-us/um/people/gray/Moore_Law.html
En
1968, Robert Noyce decide abandonar la compañía Fairchild
Semiconductor, para poder fundar en 1969, junto a Andrew Grove y
Gordon Moore, la compañía Integrated Electronics, conocida como
Intel.
En 1970,
Intel consiguió almacenar cadenas de ceros y unos, desarrollando la
primera memoria RAM. En 1971, consiguen integrar la memoria RAM
en la CPU, con lo que consiguen crear el primer ordenador comercial
al alcance del consumidor, el Altair 8800. En 1971, nació el primer
microprocesador, denominado 4004, compuesto por 4 chips desarrollados
por Ted Hoff y otros 2 chips de memoria. Poco después, Intel
comercializó el 8008. En 1981, Intel desarrolló los procesadores de
16 bits 8086 y los de 8 bits 8088. Estos procesadores permitieron a
IBM, por primera vez, confeccionar el primer PC. En 1982, Intel
desarrolló el 286 capaz de ofrecer compatibilidad con sus
predecesores.
En 1985, llegó el 386, un microprocesador de 32 bits. Fue adoptado por Compaq para su computadora personal Compaq Deskpro 386. En 1989 la compañía desarrolló Intel 486 de 1,2 millones de transistores. En 1990, Noyce investigaba acerca de los microchips, hasta que el 3 de junio falleció tras un fallo cardíaco. Después de su muerte, la compañía Intel prosiguió desarrollando los microprocesadores a través de la línea Pentium, consiguiendo que la mayoría de computadoras tengan como cerebro, un Pentium o un Celeron. En el año 2000, Jack Kilby recibe el Premio Nobel de Física, conjuntamente con Robert Noyce, por su trabajo acerca de los microprocesadores
En 1985, llegó el 386, un microprocesador de 32 bits. Fue adoptado por Compaq para su computadora personal Compaq Deskpro 386. En 1989 la compañía desarrolló Intel 486 de 1,2 millones de transistores. En 1990, Noyce investigaba acerca de los microchips, hasta que el 3 de junio falleció tras un fallo cardíaco. Después de su muerte, la compañía Intel prosiguió desarrollando los microprocesadores a través de la línea Pentium, consiguiendo que la mayoría de computadoras tengan como cerebro, un Pentium o un Celeron. En el año 2000, Jack Kilby recibe el Premio Nobel de Física, conjuntamente con Robert Noyce, por su trabajo acerca de los microprocesadores
The
exemplary technology of this era is the microchip—the computer
inscribed on a tiny piece of processed material. More than any other
invention, this device epitomizes the overthrow of matter. Consider a
parable of the microchip once told by Gordon Moore, chairman of Intel
and a founding father of Silicon Valley: “We needed a substrate for
our chip. So we looked at the substrate of the earth itself. It was
mostly sand. So we used that. “We needed a metal conductor for the
wires and switches on the chip. We looked at all the metals in the
earth and found alutninum was the most abundant. So we used that. “We
needed an insulator and too saw that the silicon in sand mixed with
the oxygen in the air to form silicon dioxide—a kind of glass. The
perfect insulator to protect the chip. So we used that.” The result
was a technology—metal oxide silicon (MOS), made from metal, sand,
and air—in which materials costs are less than 1 percent of total
expense. Combining millions of components on a single chip, operating
in billionths of seconds, these devices transcend most of the
previous constraints of matter. The most valuable substance in this,
the fundamental product of the era, is the idea for the design.
The
overthrow of matter in economics is made possible by the previous
overthrow of matter in physics. All the cascading devaluations of
matter in the global economy and society originate with the
fundamental transfiguration of matter in quantum science. Max Planck,
the discoverer of the quantum, offered the key when he asserted that
the new science entailed a movement from the “visible and directly
controllable to the invisible sphere, from the macrocosm to the
microcosm.” The macrocosm may be defined as the visible domain of
matter, seen from the outside and ruled by the laws of classical
physics. The microcosm is the invisible domain, ruled and revealed by
the laws of modem physics.
Microcosm
The Quantum Revolution In Economics And Technology . Pagina
18
Gilder, George
Gilder, George
los circuitos integrados
Richard
Feynman, considerado fundador de la nanotecnología, ya preveía las
posibilidades en la miniaturización, manipulating and controlling
things on a small scale en 1959.
Fue
él (Feinmann) quien inspiro a investigadores y científicos hacia
nuevos horizontes.
“Why
cannot we write the entire 24 volumes of the Encyclopedia Brittanica
on the head of a pin?” enormous
amounts of information can be carried in an exceedingly small space
I am telling you what could be
done if the laws are what we think; we are not doing it simply
because we haven’t yet gotten around to it.
I do know that computing
machines are very large; they fill rooms. Why can’t we make them
very small, make them of little wires, little elements—and by
little, I mean little. For instance, the wires should be 10 or 100
atoms in diameter, and the circuits should be a few thousand
angstroms across. Everybody who has analyzed the logical theory of
computers has come to the conclusion that the possibilities of
computers are very interesting—if they could be made to be more
complicated by several orders of magnitude. If they had millions of
times as many elements, they could make judgments. They would have
time to calculate what is the best way to make the calculation that
they are about to make. They could select the method of analysis
which, from their experience, is better than the one that we would
give to them. And in many other ways, they would have new qualitative
features.
Yet there is no machine which,
with that speed, can take a picture of a face and say even that it is
a man; and much less that it is the same man that you showed it
before—unless it is exactly the same picture. If the face is
changed; if I am closer to the face; if I am further from the face;
if the light changes—I recognize it anyway. Now, this little
computer I carry in my head is easily able to do that. The computers
that we build are not able to do that. The number of elements in this
bone box of mine are enormously greater than the number of elements
in our “wonderful” computers. But our mechanical computers are
too big; the elements in this box are microscopic. I want to make
some that are submicroscopic.
The
information cannot go any faster than the speed of light—so,
ultimately, when our computers get faster and faster and more and
more elaborate, we will have to make them smaller and smaller.
But there is plenty of room to
make them smaller.
There is nothing that I can
see in the physical laws that says the computer elements cannot be
made enormously smaller than they are now. In fact, there may be
certain advantages.
When we get to the very, very
small world—say circuits of seven atoms—we have a lot of new
things that would happen that represent completely new opportunities
for design. Atoms on a small scale behave like nothing on a large
scale, for they satisfy the laws of quantum mechanics. So, as we go
down and fiddle around with the atoms down there, we are working with
different laws, and we can expect to do different things. We can
manufacture in different ways. We can use, not just circuits, but
some system involving the quantized energy levels, or the
interactions of quantized spins, etc. Another thing we will notice is
that, if we go down far enough, all of our devices can be mass
produced so that they are absolutely perfect copies of one another.
Plenty of Room at the Bottom
Richard P. Feynman (Dated: Dec. 1959)
Gilder, the quantum era
According
to Gilder, the quantum era is still unfolding in a fourfold
transformation of the world—in science, technology, business,
politics—and even in philosophy. But all the changes converge in
one epochal event: the overthrow of matter.
The change originates in the microcosm of quantum theory itself – which overthrew matter in the physical sciences.
The change originates in the microcosm of quantum theory itself – which overthrew matter in the physical sciences.
At
the foundation of the universe, Isaac Newton’s hard, inert, and
indivisible solids gave way to a rich panoply of paradoxical sparks,
comprising waves and particles that violate every principle of
Newtonian solidity.
At
the root
of
all the cascading changes of modern economic life—devaluing
material resources in technology, business, and geopolitics—is this
original overthrow of material solidity in the science of matter
itself.
The second step in the overthrow of matter came in the use of quantum theory to overcome the material limits of weight, heat, and force in the creation of new machines. The industrial age essentially managed and manipulated matter from the outside, lifting it against gravity, moving it against friction, melting or burning it to change its form. The quantum era manipulates matter from the inside, adapting its inner structure to human purposes.
The second step in the overthrow of matter came in the use of quantum theory to overcome the material limits of weight, heat, and force in the creation of new machines. The industrial age essentially managed and manipulated matter from the outside, lifting it against gravity, moving it against friction, melting or burning it to change its form. The quantum era manipulates matter from the inside, adapting its inner structure to human purposes.
In
the microchip, combining millions of components operating in
billionths of seconds in a space the size of the wing of a fly, human
beings built a machine that overcame all the conventional limits of
mechanical time and space. Made essentially of the silicon in
sand—one of the most common substances in earth—microchips find
their value not in their substance but in their intellectual content:
their design or software.
The
third great manifestation of the overthrow of matter
is the impact of this technology on the world of business. By
overcoming the constraints of material resources, the microchip has
devalued most large accumulations of physical capital and made
possible the launching of global economic enterprises by one
entrepreneur at a workstation.
With
the overthrow of the constraints of material scarcity, gravity, and
friction, large bureaucracies in government and business lose their
power over individual creators and entrepreneurs.
The fourth phase of the overthrow of matter is the collapse of the value of natural resources and territory in determining the distribution of power among nations. The microcosms of science, technology, and enterprise have converged in a global quantum economy that transcends all the usual measures of national power and wealth.
The fourth phase of the overthrow of matter is the collapse of the value of natural resources and territory in determining the distribution of power among nations. The microcosms of science, technology, and enterprise have converged in a global quantum economy that transcends all the usual measures of national power and wealth.
martes, 13 de octubre de 2015
El transistor (bardeen y los colaboradores en el premio nobel)
El
transistor (bardeen y los colaboradores en el premio nobel)
En
el centro de todo esta el electron.
Most
interested people understand much of what electrons do. But very few
have any clear idea of what an electron actually is, or its
implications for the concept of matter and its overthrow in the world
economy.
From
the telephone to the human brain, from the television set to the
computer, information mostly flows in the form of electrons. This
function of electrons has quantum roots. As in Planck’s black body
radiation, electrons do not respond to applied energy in a
continuous, proportional, or linear way. They are non-linear; they
have quantum thresholds and resonances. These quantum functions shape
their electrical properties. In order to move through a solid,
electrons must be freed from their atoms, jumping from one energy
state to a free state across measurable energy “band gaps” in
strict accordance with quantum rules. These rules give electrons
identifiable and controllable features that can be used to convey
information.
With
controlled pulses of electrons down wires, computers could be
interconnected around the world. With controlled flows of electrons
in and out of tiny capacitors, computer memories could be constantly
read, written, and restored.
Crossing
decisively into the microcosm, Heisenberg declared that the waves
which Bohr had examined in recreating the atom were not conventional
waves at all. Designated “probability amplitudes,” they were
waves or fields that defined the statistical likelihood of finding an
electron at any particular location. This was a climactic step in the
overthrow of materialism in physics. With the electron itself
depicted as a wave and the wave depicted as a probability field, the
specific particle in this theory had disappeared into a cloud. With
it disappeared the last shreds of Newtonian logic and mechanistic
solidity.
As Bohr
put it, quantum theory required “a final renunciation of the
classical idea of causality and a radical revision of our attitude
toward the problem of physical reality.”
Microcosm
The Quantum Revolution In Economics And Technology . Pagina
25
Los
encargados de aplicar en forma práctica la teoría cuántica, fueron
los inventores del transistor en 1948, lo cual significó un hito en
la historia del desarrollo de las tecnologias de información.
John
Bardeen (1908-1991), William B. Shockley (1910-1989), and Walter H.
Brattain (1902-1987)
Bardeen
en su Nobel Lecture de 1947 establece que en la raiz de toda la
investigacion que condujo al desarrollo del primer transistor estuvo
la Wilson’s quantum mechanical theory, based on the energy band
model, and describing conduction in terms of excess electrons and
holes. It is fundamental to all subsequent developments. The theory
shows how the concentration of carriers depends on the temperature
and on impurities.
JO
H N BA R D E E N Semiconductor research leading to the point contact
transistor
Nobel
Lecture, December 11, 1956
Del mecanicismo causistico a lo probabilistico
Del
mecanicismo causistico a lo probabilistico
Today
most sophisticated people imagine that they have transcended Newton
and have come to terms with the findings of modern science. But they
have not. As an intellectual faith, materialist logic still prevails.
We
still believe that the solid world we see and feel—governed by
determinate chains of cause and effect, rooted in Newtonian masses
and forces—is real and in some sense definitive. The atom may not
be ultimate, but they assume some other particle is, perhaps the
quark.
At
the foundations of the physical world, so it is supposed, are
physical solids—”building blocks”—that resemble in some way
the solids we see. They link together in causal chains of mechanical
logic like a set of cogs and levers. These solids are deemed to
comprise all matter, from atoms and billiard balls to bricks and the
human brain.
Announced
in 1913 and proved for the single electron of the hydrogen atom, the
Bohr model was the first great vindication of quantum theory.
One test of scientific advance is whether it extends the realms of
human understanding and control.
The
established physics could not explain the effectiveness of chemistry,
let alone extend it to atoms. Unlike a solar system, atoms do not
exist in majestic isolation. Ceaselessly in movement, they endlessly
jiggle together in what is called Brownian motion. We even step on
them. In a world of Newtonian continuities, electron orbits would
vary continually as atoms collided with one another. Constantly
knocked loose in these collisions, electrons in a conductor should
flow far more copiously and respond to heat more massively than
experiments showed.
Reunifying
chemistry and physics in the microcosm, the new model of the atom
explained the apparent solidity of the physical world. Establishing a
gap, called a band gap, between an electron in its ground state and
an electron excited to a higher energy level, the new physics showed
why the constant collisions of atoms do not cause the atomic
structure to collapse. A small collision will not affect an atom. An
electron will not respond to any small disturbance. It will react
only if it receives its necessary quantum of energy, defined by its
resonant frequency times Planck’s constant.
Microcosm
The Quantum Revolution In Economics And Technology . Pagina
21
lunes, 12 de octubre de 2015
Heisenberg y los observables
Heisenberg
y los observables
Generalmente
es reconocido el hecho de que el papel publicado en julio de 1925 por
Werner Heisenberg es el que di fin a la “Teora Cuntica Vieja”, y
que con la exposicin de su Mecnica Matricial se di entrada a la
Mecnica Cuntica tal como se conoce y se practica en la actualidad.
Heisenber
mismo, en su famoso articulo fundacional de la nueva mecánica
cuántica, resaltaria el hecho de que “it is well known that the
formal rules which are used in quantum theory for calculating
observable quantities such as the energy of the hydrogen atom may be
seriously criticzised on the grounds that they contain, as basic
element, relationships between quantities that are apparently
unobservable in principle, e.g., position and period of revolution of
electron... Experience however shows that only the hydrogen atom and
its Stark effect are amenable to treatment by these formal rules of
quantum teory”.
Heisenberg
también critica el principio de correspondencia: “It has become
the practice to characterize this failure of the quantum-theoretical
rules as a deviation from classical mechanics, since the rules
themselves were essentially derived from classical mechanics.”
Y
en concordancia con Husserl:
On
doit s'accommoder du fait que ce n'est qu' travers le processus de
connaissance lui-mme que se dcide ce qu'on doit entendre par
"connaissance". [...] Toute formulation dans le langage est
toujours, non seulement une saisie de la ralit, mais aussi une manire
de la mettre en forme et de l'idaliser [...] La connaissance n'est
sans doute en dernire instance rien d'autre que l'agencement non pas
l'agencement de quelque chose qui serait dj disponible en tant
qu'objet de notre conscience ou de notre perception, mais plutt
l'agencement de quelque chose qui ne devient un veritable
contenu de conscience ou un processus perceptif qu' travers cet
agencement meme (Whm, 363-364)
"Philosophie.
Le manuscrit de 1942"
Heisenberg,
W. Philosophie. Le manuscrit de 1942. Introduction et traduction par
C. Chevalley (490 p.). Editions du Seuil, 1998. Premire dition en
allemand : Ordnung der Wirklichkeit, 1989. Seconde dition francaise :
Arla, 2003, 2010 (173 p.)
da
el paso fundamental que destraba el callejon sin salida a que habia
llegado la mecanica cuantica.
“In
this situation it seems sensible to discard all hope of observing
hitherto unobservable quantites, such as the position and period of
electron, and to concede that the partial agreement of the quantum
rules with experience is more or less fortuitous. Instead it seems
more reasonable to try to establish a theoretical quantum mechanics,
analogous to classical mechanics, but in which only relations between
observable quantities occur.”
Dando
a luz la mecánica matricial. Y abriendo una nueva dimension para la
fisica.
Quantum-theoretical
re-interpretation of kinematic and mechanical relations. W.Heisenberg
As
hitherto defined, quantum mechanics enables the radiation
emitted
by the atom, the energy values of the stationary states, and other
parameters
characteristic for the stationary states to be treated. The theory
hence
complies with the experimental data contained in atomic spectra. In
all those cases, however, where a visual description is required of a
transient event, e.g. When interpreting Wilson photographs, the
formalism of the theory does not seem to allow an adequate
representation of the experimental state of affairs. At this point
Schrödinger’s wave mechanics, menawhile developed on the basis of
the de Broglie’s theses, came to the assistance of quantum
mechanics.
Tal
como Heisenberg lo considera, el cambio de la mecánica clásica a la
mecánica cuántica fue así:
In
classical physics the aim of research was to investigate objective
processes occurring in space and time, and to discover the laws
governing their progress from the initial conditions. In classical
physics a problem was considered solved when a particular phenomenon
had been proved to occur objectively in space and time, and it have
been shown to obey the general rules of classical physics as
formulated by differential equations.
The
manner in which the knowledge of each process had been acquired, what
observations may possibly have led to its experimental determination,
was completely immaterial, and it was also immaterial for the
consequences of the classical theory, which possible observations
were to verify the predicitions of the theory. In the quantum theory,
however, the situation is completely different. The very fact that
the formalism of quantum mechanics cannot be interpreted as visual
description of a phenomenom occurring in space and time shows that
quantum mechanics is in no way concerned with the objective
determination of space - time phenomena. On the contrary, the
formalism of quantum mechanics should be used in such a way that the
probability for the outcome of a further experiment may be concluded
from the determination of an experimental situation in an atomic
system, providing that the system is subject to no perturbations
other than those necessitated by performing the two experiments.
Nobel
Lecture 1939 Heisenberg.
La catástrofe del átomo de Bohr.
La
catastrofe del atomo de Bohr.
Bohr
cuantizó las orbitas planetarias enunciando el principio, más
fundamental de que el ímpetu angular del sistema es un múltiplo
entero de la constante de Planck (entre 2p);
pero, a pesar de su gran éxito en los átomos hidrogenoides,
finalmente se debió concluir que esta cuantización es incorrecta.
En
general, el modelo de Bohr:
-
No explica de donde surge la relación mvr = nh/2p ; con lo cual sus resultados son asombrosamente congruentes con los hechos experimentales.
2. Solo es aplicable para el átomo de hidrógeno, para átomos más complejos sus ecuaciones resultan insatisfactorias
3. Cuando el espectro del átomo de sodio se examina con un espectroscopio de alta resolución, la línea original se descompone en dos, lo que no se explica en su teoría.
4. La teoría de Bohr no explica por que cuando los espectros de emisión atómica se observan en presencia de un campo magnético surge una multiplicidad de líneas espectrales (efecto Zeeman).
5. No explica porque algunas líneas espectrales son mas brillantes que otras.
6. Existía una incoherencia lógica en su teoría , pues al lado de los principios fundamentales de la Física Clásica y el electromagnetismo, se introdujeron postulados nuevos (momento angular y condición de frecuencia) que entraban en contradicción con los principios de los cuales partía.
Las reglas de la cuantización (momento angular y condición de frecuencia) se añadierón a la Física Clásica sin ninguna liga lógica. Bohr mismo hizo un examen crítico de su teoría a fin de mostrar a los jóvenes físicos la necesidad de buscar los principios de la teoría de los fenómenos atómicos
Con
el advenimiento de la mecánica ondulatoria de De Broglie y la
ecuación de Schrodinger los estados dinámicos quedaron limitados
automáticamente a la serie postulada por Bohr y sólo se abandona el
concepto clásico del electrón "planetario".
QG-Mendeleiev,
Genaro carmona.
Modelo
atómico de Niels Bohr
lunes, 5 de octubre de 2015
El Principio de Correspondencia y Husserl
En
fisica, los fenomenos macroscopicos se estudiaban con recursos
infinitos, que en realidad eran promedios estadisticos. Sin embargo,
en lo microscpico, lo que proporciona explicaciones cientificas es el
procedimiento cuantico finito.
Como
hemos visto, aplicar analisis continuos infinitos conduce, en el
estudio de lo microscopico a catastrofes cientficas (gnoseolgicas).
La
filosofia provee las claves de esas catastrofes. El infinito de la
dominancia eidtica en la filosofa clsica anula los niveles de
realidad, aplanndola y haciendo que las ciencias ms duras avasallen
alas ciencias tenidas por ms dbiles, por ejemplo, que son las
ciencias humanas.
Es
entonces cuando aparece el potencial de ruptura de lo clsico de la
fenomenologa.
La
fenomenologa explora la realidad como una serie arquitectnica no
natural que va desde el mundo vivido, con una universalidad tpica, no
eidtica, hasta un nivel originario, estrictamente fenomenologico
(refractario de toda eidtica) donde se generan las sntesis de sentido
que son meras sntesis esquemticas. Ahora es la propia subjetividad la
que resulta medida y estratificada en niveles.
Entonces
el principio de correspondencia se generaliza, ya no ser la
correspondencia entre lo clsico y lo cuntico. Ser la correspondencia
entre la scala naturae, base originaria de la filosofia clsica (y del
ideal cientfico reduccionista), y la escala fenomenolgica, que surge
de la reduccin desde el nivel de la realidad humana y con niveles
diferenciados atestables en su transposicin.
Ya
no se intentar hacer corresponder lo clsico y lo post-clsico, sino
enfrentar la escala natural y la escala fenomenolgica que confluyen
en el vrtice comn de la realidad humana, ltimo escaln de la escala
natural y primero de la reduccin.
El
principio de correspondencia. Ricardo Sanchez Ortiz de Urbina.
Para
lograrlo, Husserl propone la epoxe fenomenologica:
Εποχή
Fenomenologica que es “poner entre parntesis este mundo natural
entero, que esta constantemente “para nosotros ahi delante”, y
que seguira estndolo permanentemente, como “realidad” de que
tenemos conciencia, aunque nos de por colocarlo entre parentesis.
No niego “este mundo” como si fuera un sofista, ni dudo de su existencia, como si fuera un esptico, sino que practico la epoxe “fenomenologica” que me cierrra completamente todo juicio sobre existencias en el espacio y en el tiempo.
Desconecto todas las ciencias referentes a este mundo natural, por slidas que me parezcan.
Desde el momento en que le inflijo el parentesis, no puedo hacer ms que afrontar la existencia tal como es.
Lo que nosotros pedimos se encuentra en otra direccion. El mundo entero, puesto en la actitud natural, con que nos encontramos realmente en la experiencia, tomado plenamente “libre de teorias”, tal como se tiene real experiencia de l, como consta claramente en la concatenacion de las experiencias no vale para nosotros ahora nada; sin ponerlo a prueba, pero tambien sin discutirlo, debe quedar colocado entre parentesis.
De igual modo deben sucumbir al mismo destino todas las teorias y ciencias que se refieren a este mundo, por estimables que sean y esten fundadas a la manera positivista o de cualquier otra.
No niego “este mundo” como si fuera un sofista, ni dudo de su existencia, como si fuera un esptico, sino que practico la epoxe “fenomenologica” que me cierrra completamente todo juicio sobre existencias en el espacio y en el tiempo.
Desconecto todas las ciencias referentes a este mundo natural, por slidas que me parezcan.
Desde el momento en que le inflijo el parentesis, no puedo hacer ms que afrontar la existencia tal como es.
Lo que nosotros pedimos se encuentra en otra direccion. El mundo entero, puesto en la actitud natural, con que nos encontramos realmente en la experiencia, tomado plenamente “libre de teorias”, tal como se tiene real experiencia de l, como consta claramente en la concatenacion de las experiencias no vale para nosotros ahora nada; sin ponerlo a prueba, pero tambien sin discutirlo, debe quedar colocado entre parentesis.
De igual modo deben sucumbir al mismo destino todas las teorias y ciencias que se refieren a este mundo, por estimables que sean y esten fundadas a la manera positivista o de cualquier otra.
Ideas
relativas a una fenomenologia pura y una filosofia fenomenologica.
pagina
73-74
En
el método de la física es la cosa percibida misma, siempre y por
principio, exactamente la cosa que el físico investiga y determina
científicamente.
La
cosa que el fisico observa, con la que experimenta, que esta viendo
constantemente, toma en la mano, pone en la balanza, mete en el
horno, esta cosa y no otra es la que se convierte en sujeto de los
predicados fisicos, como son el peso, la masa, la temperatura, la
resistencia electrica, etc.
Igualmente son los procesos y relaciones percibidos mismos los determinados por medio de conceptos como fuerza, aceleración, energía, átomo, ión, etc.
La cosa que aparece sensiblemente, la cosa que tiene las formas, colores, y cualidades olfativas y gustativas sensibles, es, pues, todo menos un signo de otra, sino en cierta medida un signo de si misma.
Igualmente son los procesos y relaciones percibidos mismos los determinados por medio de conceptos como fuerza, aceleración, energía, átomo, ión, etc.
La cosa que aparece sensiblemente, la cosa que tiene las formas, colores, y cualidades olfativas y gustativas sensibles, es, pues, todo menos un signo de otra, sino en cierta medida un signo de si misma.
Sólo
esto se puede decir: la cosa que aparece con estas y aquellas
cualidades sensibles en las circunstancias fenoménicas dadas es para
el fisico -que en general ha llevado a cabo ya la
determinación física de semejantes cosas, en órdenes de apariencias de la índole respectiva – índice de una multitud de propiedades causales de esta misma cosa que en cuanto tales se dan
a conocer justamente en cadenas de apariencias de índole bien conocida. Lo que se da a conocer en ellas es patentemente -justo en cuanto se da a conocer en unidades intencionales de vivencias de conciencia- trascendente por principio.
determinación física de semejantes cosas, en órdenes de apariencias de la índole respectiva – índice de una multitud de propiedades causales de esta misma cosa que en cuanto tales se dan
a conocer justamente en cadenas de apariencias de índole bien conocida. Lo que se da a conocer en ellas es patentemente -justo en cuanto se da a conocer en unidades intencionales de vivencias de conciencia- trascendente por principio.
Ideas
relativas a una fenomenologia pura y una filosofia fenomenologica.
pag
121
Suscribirse a:
Entradas (Atom)