Deep learning

Software libraries https://en.wikipedia.org/wiki/Comparison_of_deep_learning_software Main article: Comparison of deep learning software Deeplearning4j — An open-source deep-learning library written for Java/C++ with LSTMs and convolutional networks. It provides parallelization with Spark on CPUs and GPUs. Gensim — A toolkit for natural language processing implemented in the Python programming language. Keras — An open-source deep learning framework for … Continue reading «Deep learning»

Software libraries

https://en.wikipedia.org/wiki/Comparison_of_deep_learning_software

  • Deeplearning4j — An open-source deep-learning library written for Java/C++ with LSTMs and convolutional networks. It provides parallelization with Spark on CPUs and GPUs.
  • Gensim — A toolkit for natural language processing implemented in the Python programming language.
  • Keras — An open-source deep learning framework for the Python programming language.
  • Microsoft CNTK (Computational Network Toolkit) — Microsoft’s open-source deep-learning toolkit for Windows and Linux. It provides parallelization with CPUs and GPUs across multiple servers.
  • MXNet — An open source deep learning framework that allows you to define, train, and deploy deep neural networks.
  • OpenNN — An open source C++ library which implements deep neural networks and provides parallelization with CPUs.
  • PaddlePaddle — An open source C++ /CUDA library with Python API for scalable deep learning platform with CPUs and GPUs, originally developed by Baidu.
  • TensorFlow — Google’s open source machine learning library in C++ and Python with APIs for both. It provides parallelization with CPUs and GPUs.
  • Theano — An open source machine learning library for Python supported by the University of Montreal and Yoshua Bengio’s team.
  • Torch — An open source software library for machine learning based on the Lua programming language and used by Facebook.
  • Caffe – Caffe is a deep learning framework made with expression, speed, and modularity in mind. It is developed by the Berkeley Vision and Learning Center (BVLC) and by community contributors.
  • DIANNE – A modular open-source deep learning framework in Java / OSGi developed at Ghent University, Belgium. It provides parallelization with CPUs and GPUs across multiple servers.

La novela negra

La novela negra (francésNoir) o hard-boiled es, como la definió Raymond Chandler en su ensayo El simple arte de matar (1950), lanovela del mundo profesional del crimen. Debe su nombre a que originalmente fue publicada en la revista Black Mask de Estados Unidos y en la colección Série Noire de la editorial francesa Gallimard,1 pero también al carácter oscuro de los ambientes en que transcurre, lejos de las casas señoriales que ambientaban las novelas policiacas típicas de la época.1 Otros prefieren la denominación de novela criminal.

El término se asocia a un tipo de novela policíaca en la que la resolución del misterio no es el objetivo principal y los argumentos son habitualmente muy violentos; la división entre buenos y malos de los personajes se difumina y la mayor parte de sus protagonistas son individuos derrotados y en decadencia en busca de la verdad o, cuando menos, algún atisbo de ella.


La novela negra (francésNoir) o hard-boiled es, como la definió Raymond Chandler en su ensayo El simple arte de matar (1950), lanovela del mundo profesional del crimen. Debe su nombre a que originalmente fue publicada en la revista Black Mask de Estados Unidos y en la colección Série Noire de la editorial francesa Gallimard,1 pero también al carácter oscuro de los ambientes en que transcurre, lejos de las casas señoriales que ambientaban las novelas policiacas típicas de la época.1 Otros prefieren la denominación de novela criminal.

El término se asocia a un tipo de novela policíaca en la que la resolución del misterio no es el objetivo principal y los argumentos son habitualmente muy violentos; la división entre buenos y malos de los personajes se difumina y la mayor parte de sus protagonistas son individuos derrotados y en decadencia en busca de la verdad o, cuando menos, algún atisbo de ella.

demografía

CURSO DE DEMOGRAFÍA MÓDULOS UNIVERSITARIOS DE DESARROLLO SOSTENIBLE La demografía (del griego δήμος dēmos ‘pueblo’ y γραφία grafía ‘trazo, descripción’ –estudio de la población–) es la ciencia que tiene como objetivo el estudio de las poblaciones humanas, de su dimensión,estructura, evolución y características generales. La demografía estudia estadísticamente la estructura y la dinámica de las … Continue reading «demografía»

CURSO DE DEMOGRAFÍA

MÓDULOS UNIVERSITARIOS DE DESARROLLO SOSTENIBLE

La demografía (del griego ????? d?mos ‘pueblo’ y ?????? grafía ‘trazo, descripción’ –estudio de la población–) es la ciencia que tiene como objetivo el estudio de las poblaciones humanas, de su dimensión,estructura, evolución y características generales.

La demografía estudia estadísticamente la estructura y la dinámica de las poblaciones, así como los procesos concretos que determinan su formación, conservación y desaparición. Tales procesos, en su forma más agregada, son los de fecundidad, mortalidad y migración: emigración e inmigración.1

Transición demográfica

La transición demográfica es una teoría demográfica que explicaría el paso de un régimen demográfico preindustrial, presidido por altas tasas de mortalidad y natalidad a otro industrial con un fuerte incremento de la población y posteriormente postindustrial, con tasas muy bajas de mortalidad y natalidad. Aunque en principio quería dar cuenta, básicamente, de los cambios demográficos provocados por la revolución industrial, su utilización, aunque con críticas y limitaciones, está en muchos sentidos vigente, ya que puede decirse que ha constituido un paradigma en la demografía de buena parte del siglo XX.1 2

Inicialmente la transición demográfica pretendía explicar la relación entre los cambios demográficos y los cambios socioeconómicos que se produjeron en el siglo XVIII en los países desarrollados de Europa y por tanto establecer una relación de causalidad entre población, desarrollo y crecimiento demográfico.

Glosario De Conceptos Políticos Usuales

TRANSICIÓN DEMOGRÁFICA: Este concepto se emplea para designar un período característico dentro de la evolución demográfica de países que comienzan a vivir un proceso de modernización. Las sociedades tradicionales se caracterizan por una alta natalidad y una alta mortalidad (sobre todo infantil) por lo que el crecimiento demográfico es lento. Las sociedades que comienzan un proceso de modernización, pronto ven reducir su índice de mortalidad infantil, sobre todo por la importación de medicina moderna desde los países avanzados y la difusión de nuevas normas de higiene, mientras su índice de natalidad permanece alto, acorde con las pautas culturales tradicionales. Se produce entonces una “explosión demográfica” que luego cede, cuando se adoptan nuevas pautas reproductivas, características de las sociedades modernas, y entonces reaparece el lento crecimiento demográfico, en un nuevo contexto socio-cultural.


Enlaces relacionados:
GLOSARIO DE CONCEPTOS POLÍTICOS USUALES completo en PDF (para imprimir, 99 páginas, 610 Kb)

La Transición Demográfica en América Latina

Basado en : BID/CEPAL/CELADE, (Banco Interamericano de Desarrollo/ Comisión Económica para América Latina y el Caribe/ Centro Latinoamericano y Caribeño de Demografía),
Impacto de las Tendencias Demográficas sobre los Sectores Sociales en América Latina, Santiago.

Los cambios demográficos de los últimos decenios se insertan en el denominado proceso de transición demográfica. Si bien el concepto de transición demográfica tuvo su origen en el intento de explicar la relación entre los cambios demográficos y los cambios socioeconómicos en Europa durante el siglo XVIII, su uso se ha extendido hasta el presente, tanto porque se refiere a procesos demográficos identificables aun en diferentes situaciones históricas, como por el hecho de que constituye una propuesta -siempre vigente- de explicación de la dinámica demográfica a la luz de sus interrelaciones con los factores sociales, económicos y culturales (Zabala de Cosío, 1992).

La transición demográfica ha sido descrita como un proceso de larga duración, que transcurre entre dos situaciones o regímenes extremos: uno, inicial, de bajo crecimiento demográfico con altas tasas de mortalidad y fecundidad, y otro, final, de bajo crecimiento pero con niveles también bajos en las respectivas tasas. Entre ambas situaciones de equilibrio se pueden identificar dos momentos principales. El primero, en el que la tasa de crecimiento de la población aumenta como consecuencia del descenso de la mortalidad, y el segundo, en el que dicho crecimiento disminuye, debido al descenso posterior de la fecundidad. En qué magnitud y a qué velocidad cambia la tasa de crecimiento, dependerá de la velocidad y del momento en que comienzan a descender la mortalidad y la fecundidad (Chesnais, 1986).

En el marco de este esquema, América Latina se encuentra, como señalaron Chackiel y Martínez (1993), “transitando la fase de disminución de la fecundidad, que se ha producido en forma rápida, después de haber experimentado cambios importantes en la mortalidad desde antes de la segunda mitad del siglo -aunque todavía con un amplio margen de posible reducción-, con el resultado de una tasa de crecimiento en descenso”.

El término Segunda transición demográfica (STD) o teoría de la segunda transición demográfica, en demografía y demografía social y sociología, se aplica a los cambios en la constitución y reproducción de las familias después de la segunda guerra mundial que explicarían fenómenos de los que no daba cuenta la teoría tradicional de latransición demográfica. Esta segunda transición demográfica incluye, además del descenso de la mortalidad de la Teoría de la Transición Demográfica o TTD un fuerte descenso de la fecundidad y la aparición de la migración como elemento relevante demográfico1 que afecta básicamente a los considerados países industrializados2

Nivel trófico

Nivel trófico

Se denomina nivel trófico a cada uno de los conjuntos de especies, o de organismos, de un ecosistema que coinciden por la posición o turno que ocupan en el flujo de energía y nutrientes, es decir, a los que ocupan un lugar equivalente en la cadena alimenticia.

Niveles tróficos

Los niveles tróficos se pueden caracterizar de esta manera:
  • Productores primarios. Son los autótrofos, aquellos organismos que producen materia orgánica «primariamente», partiendo de materia inorgánica, y son las plantas, lasalgas y una parte de las bacterias. Pueden hacerlo por medio de la fotosíntesis o de la quimiosíntesis. Son los primeros en la cadena trófica, los que reciben la energía desde fuera, los que la incorporan desde una fuente exterior y la ponen al alcance de la vida. Lo mismo ocurre con la materia, que incorporan como sustancias inorgánicas convirtiéndolas en sustancias orgánicas.
  • Consumidores. Son los heterótrofos, aquellos organismos que fabrican su materia orgánica partiendo de la materia orgánica que obtienen de otros seres vivos; fabrican sus componentes orgánicos propios a partir de los ajenos. Los consumidores pueden a su vez proporcionar materia orgánica a otros, cuando son consumidos o cuando son aprovechados. Los consumidores son también productores (fabrican su propia materia orgánica) pero no son productores primarios, sino productores de otros órdenes, de otros turnos.
    • Consumidores primarios. Son aquellos que se alimentan directamente de los productores primarios. El concepto incluye tanto a los fitófagos (o herbívoros) que comen plantas o algas, como los parásitos, mutualistas y comensales que obtienen su alimento de ellas y otras maneras. Son los segundos en la cadena trófica, los que reciben la energía de los primeros (los productores primarios) y los que proporcionan energía a los terceros (los consumidores secundarios); por ello se les puede llamar tambiénproductores secundarios.
    • Consumidores secundarios. Son los organismos que se alimentan de los consumidores primarios, comiéndolos o de alguna otra manera. Se llama específicamentezoófagos o carnívoros a los que lo hacen consumiéndolos. Son además productores terciarios.
    • Consumidores terciarios. Son los organismos que se alimentan de consumidores secundarios. Cuando los consideramos en tanto que productores, son productores cuaternarios.
    • Consumidores cuaternarios. Son los organismos que se alimentan de consumidores terciarios.
  • Saprótrofos: También llamados desintegradores son aquellos seres vivos que obtienen la materia y la energía de los restos de otros seres vivos. Distinguimos adescomponedores, o saprófitos, que son los organismos heterótrofos que absorben nutrientes por ósmosis (osmotrofia), como lo hacen las bacterias y los hongos, de lossaprófagos o detritívoros, que son los animales y protozoos que se nutren de residuos por ingestión (fagotrofia), que en el caso de los protozoos es por fagocitosis.
La importancia de los descomponedores y detritívoros radica en que son los responsables del reciclado de los nutrientes. Este proceso permite que la materia que ha ido pasando de unos organismos a otros pueda ser utilizada de nuevo por los productores, los que arrancan la cadena trófica. El nitrógeno orgánico, que en la materia viva se presenta combinado con hidrógeno, se devuelve a la forma de nitrato, que es la que necesitan en general los autótrofos. Por esta clase de procesos se cierra el ciclo de materia en el ecosistema, lo que permite que el mismo átomo pueda ser reutilizado un número ilimitado de veces. Nada permite, sin embargo, por limitacionestermodinámicas, que la energía que ya ha circulado a través de la cadena trófica puede volver a ser utilizada.

Nivel trófico

Se denomina nivel trófico a cada uno de los conjuntos de especies, o de organismos, de un ecosistema que coinciden por la posición o turno que ocupan en el flujo de energía y nutrientes, es decir, a los que ocupan un lugar equivalente en la cadena alimenticia.

Niveles tróficos

Los niveles tróficos se pueden caracterizar de esta manera:
  • Productores primarios. Son los autótrofos, aquellos organismos que producen materia orgánica «primariamente», partiendo de materia inorgánica, y son las plantas, lasalgas y una parte de las bacterias. Pueden hacerlo por medio de la fotosíntesis o de la quimiosíntesis. Son los primeros en la cadena trófica, los que reciben la energía desde fuera, los que la incorporan desde una fuente exterior y la ponen al alcance de la vida. Lo mismo ocurre con la materia, que incorporan como sustancias inorgánicas convirtiéndolas en sustancias orgánicas.
  • Consumidores. Son los heterótrofos, aquellos organismos que fabrican su materia orgánica partiendo de la materia orgánica que obtienen de otros seres vivos; fabrican sus componentes orgánicos propios a partir de los ajenos. Los consumidores pueden a su vez proporcionar materia orgánica a otros, cuando son consumidos o cuando son aprovechados. Los consumidores son también productores (fabrican su propia materia orgánica) pero no son productores primarios, sino productores de otros órdenes, de otros turnos.
    • Consumidores primarios. Son aquellos que se alimentan directamente de los productores primarios. El concepto incluye tanto a los fitófagos (o herbívoros) que comen plantas o algas, como los parásitos, mutualistas y comensales que obtienen su alimento de ellas y otras maneras. Son los segundos en la cadena trófica, los que reciben la energía de los primeros (los productores primarios) y los que proporcionan energía a los terceros (los consumidores secundarios); por ello se les puede llamar tambiénproductores secundarios.
    • Consumidores secundarios. Son los organismos que se alimentan de los consumidores primarios, comiéndolos o de alguna otra manera. Se llama específicamentezoófagos o carnívoros a los que lo hacen consumiéndolos. Son además productores terciarios.
    • Consumidores terciarios. Son los organismos que se alimentan de consumidores secundarios. Cuando los consideramos en tanto que productores, son productores cuaternarios.
    • Consumidores cuaternarios. Son los organismos que se alimentan de consumidores terciarios.
  • Saprótrofos: También llamados desintegradores son aquellos seres vivos que obtienen la materia y la energía de los restos de otros seres vivos. Distinguimos adescomponedores, o saprófitos, que son los organismos heterótrofos que absorben nutrientes por ósmosis (osmotrofia), como lo hacen las bacterias y los hongos, de lossaprófagos o detritívoros, que son los animales y protozoos que se nutren de residuos por ingestión (fagotrofia), que en el caso de los protozoos es por fagocitosis.
La importancia de los descomponedores y detritívoros radica en que son los responsables del reciclado de los nutrientes. Este proceso permite que la materia que ha ido pasando de unos organismos a otros pueda ser utilizada de nuevo por los productores, los que arrancan la cadena trófica. El nitrógeno orgánico, que en la materia viva se presenta combinado con hidrógeno, se devuelve a la forma de nitrato, que es la que necesitan en general los autótrofos. Por esta clase de procesos se cierra el ciclo de materia en el ecosistema, lo que permite que el mismo átomo pueda ser reutilizado un número ilimitado de veces. Nada permite, sin embargo, por limitacionestermodinámicas, que la energía que ya ha circulado a través de la cadena trófica puede volver a ser utilizada.

Oniscidea

Los oniscídeos (Oniscidea), conocidos vulgarmente como cochinillas de humedad,1 chanchitos de tierra, marranitos,bicho bola, bicho de humedad o bicho bolita,2 son un suborden de crustáceos isópodos terrestres con unas 3000 especiesdescritas. Tienen un exoesqueleto rígido, segmentado y calcáreo, y poseen siete pares de patas. Las cochinillas pueden confundirse con diplópodos (una clase de miriápodos) de … Continue reading «Oniscidea»

Los oniscídeos (Oniscidea), conocidos vulgarmente como cochinillas de humedad,1 chanchitos de tierra, marranitos,bicho bola, bicho de humedad o bicho bolita,2 son un suborden de crustáceos isópodos terrestres con unas 3000 especiesdescritas. Tienen un exoesqueleto rígido, segmentado y calcáreo, y poseen siete pares de patas.

Las cochinillas pueden confundirse con diplópodos (una clase de miriápodos) de cuerpo corto y rechoncho, de morfología externa similar producto de una evolución convergente; para diferenciarlos basta con ver cuántas patas se observan a cada lado de un segmento externo. Si hay sólo un par de patas, el animal es un crustáceo, y si hay dos pares, es un diplópodo.

The Constant Gardener

The Constant Gardener is a 2005 political thriller film directed by Fernando Meirelles. The screenplay by Jeffrey Caine is based on the John le Carré novel of the same name. The film follows Justin Quayle (Ralph Fiennes), a British diplomat … Continue reading

The Constant Gardener is a 2005 political thriller film directed by Fernando Meirelles. The screenplay by Jeffrey Caine is based on the John le Carré novel of the same name. The film follows Justin Quayle (Ralph Fiennes), a British diplomat in Kenya, as he tries to solve the murder of his wife Tessa (Rachel Weisz), an Amnesty activist, alternating with many flashbacks telling the story of their love.

The film also stars Hubert Koundé, Danny Huston, Bill Nighy and Donald Sumpter. It was filmed on location in Loiyangalani and theslums of Kibera, a section of Nairobi, Kenya. Circumstances in the area affected the cast and crew to the extent that they set up theConstant Gardener Trust in order to provide basic education for these villages. The plot was vaguely based on a real-life case in Kano, Nigeria. The DVD versions were released in the United States on 1 January 2006 and in the United Kingdom on 13 March 2006. Justin’s gentle but diligent attention to his plants is a recurring background theme, from which image the film’s title is derived


treadle pump

A treadle pump is a human-powered suction pump that sits on top of a well and is used for irrigation.[1] It is designed to lift water from a depth of seven metres or less. The pumping is activated by stepping up and down on a treadle, which are levers, which drive pistons, creating cylinder suction […]

Treadle_pump_GB_drawing

A treadle pump is a human-powered suction pump that sits on top of a well and is used for irrigation.[1] It is designed to lift water from a depth of seven metres or less. The pumping is activated by stepping up and down on a treadle, which are levers, which drive pistons, creating cylinder suction that draws groundwater to the surface.


Hick’s law

The Paradox of Choice – Why More Is Less is a 2004 book by American psychologist Barry Schwartz. In the book, Schwartz argues that eliminating consumer choices can greatly reduce anxiety for shoppers. Autonomy and Freedom of choice are critical to our well being, and choice is critical to freedom and autonomy. Nonetheless, though modern […]

The Paradox of Choice – Why More Is Less is a 2004 book by American psychologist Barry Schwartz. In the book, Schwartz argues that eliminating consumer choices can greatly reduce anxiety for shoppers.

Autonomy and Freedom of choice are critical to our well being, and choice is critical to freedom and autonomy. Nonetheless, though modern Americans have more choice than any group of people ever has before, and thus, presumably, more freedom and autonomy, we don’t seem to be benefiting from it psychologically.

—?quoted from Ch.5, The Paradox of Choice, 2004

Hick’s law, or the Hick–Hyman Law, named after British and American psychologists William Edmund Hick and Ray Hyman, describes the time it takes for a person to make a decision as a result of the possible choices he or she has: increasing the number of choices will increase the decision time logarithmically. The Hick–Hyman law assesses cognitive information capacity in choice reaction experiments. The amount of time taken to process a certain amount of bits in the Hick–Hyman law is known as the rate of gain of information.

Hick’s law is sometimes cited to justify menu design decisions. For example, to find a given word (e.g. the name of a command) in a randomly ordered word list (e.g. a menu), scanning of each word in the list is required, consuming linear time, so Hick’s law does not apply. However, if the list is alphabetical and the user knows the name of the command, he or she may be able to use a subdividing strategy that works in logarithmic time.[1]

Studies suggest that the search for a word within a randomly ordered list – in which the reaction time increases linearly according to the number of items – does not allow for the generalization of the scientific law, considering that, in other conditions, the reaction time may not be linearly associated to the logarithm of the number of elements or even show other variations of the basic plane.

Exceptions to Hick’s law have been identified in studies of verbal response to familiar stimuli, where there is no relationship or only a subtle increase in the reaction time associated with an increased number of elements,[4] and saccade responses, where it was shown that there is either no relationship,[5] or a decrease in the saccadic time with the increase of the number of elements, thus an antagonistic effect to that postulated by Hick’s law.[6]

The generalization of Hick’s law was also tested in studies on the predictability of transitions associated with the reaction time of elements that appeared in a structured sequence.[7] [8] This process was first described as being in accordance to Hick’s law,[9] but more recently it was shown that the relationship between predictability and reaction time is sigmoid, not linear associated with different modes of action. [10]

The power law of practice states that the logarithm of the reaction time for a particular task decreases linearly with the logarithm of the number of practice trials taken. It is an example of the learning curve effect on performance. It was first proposed as a psychological law by Newell & Rosenblom.[1] Delaney et al. showed that the power law fit better than an exponential if the analysis was performed across strategies, for a mental arithmetic task.[2]

However, subsequent research by Heathcote, Brown, and Mewhort suggests that the power function observed in learning curves that are averaged across participants is an artifact of aggregation.[3] Heathcote et al. suggest that individual-level data is better fit by an exponential function and the authors demonstrate that the multiple exponential curves will average to produce a curve that is misleadingly well fit by a power function.

The power function is based on the idea that something is slowing down the learning process; at least, this is what the function suggests. Our learning does not occur at a constant rate according this function; our learning is hindered. The exponential function shows that learning increases at a constant rate in relationship to what is left to be learned. If you know absolutely nothing about a topic, you can learn 50% of the information quickly, but when you have 50% less to learn, it takes more time to learn that final 50%.

Research by Logan suggests that the instance theory of automaticity can be used to explain why the power law is deemed an accurate portrayal of reaction time learning curves.[4] A skill is automatic when there is one step from stimulus to retrieval. For many problem solving tasks, reaction time is related to how long it takes to discover an answer, but as time goes on, certain answers are stored within the individual’s memory and they have to simply recall the information, thus reducing reaction time. This is the first theory that addresses the why of the power law of practice.

Power function:

RT = aP?b + c

Exponential function:

RT = ae?b(P-1) + c

Where

RT = Trial Completion Time
P = Trial Number, starting from 1 (for exponential functions the P-1 argument is used)
a, b, and c, are constants

Practice effects are also influenced by latency. Anderson, Fincham, and Douglass looked at the relationship between practice and latency and people’s ability to retain what they learned. As the time between trials increases, there is greater decay. The latency function relates to the forgetting curve.[5]

Latency Function:

latency = A + B*Td

Where

A = asymptotic latency B = latency that varies T = time between introduction and testing d = decay rate


flow

In positive psychology, flow, also known as the zone, is the mental state of operation in which a person performing an activity is fully immersed in a feeling of energized focus, full involvement, and enjoyment in the process of the activity. In essence, flow is characterized by complete absorption in what one does. Named by […]

In positive psychology, flow, also known as the zone, is the mental state of operation in which a person performing an activity is fully immersed in a feeling of energized focus, full involvement, and enjoyment in the process of the activity. In essence, flow is characterized by complete absorption in what one does. Named by Mihály Csíkszentmihályi, the concept has been widely referenced across a variety of fields (and has an especially big recognition in occupational therapy), though has existed for thousands of years under other guises, notably in some Eastern religions.[1] Achieving flow is often colloquially referred to as being in the zone.

According to Csikszentmihályi, flow is completely focused motivation. It is a single-minded immersion and represents perhaps the ultimate experience in harnessing the emotions in the service of performing and learning. In flow, the emotions are not just contained and channeled, but positive, energized, and aligned with the task at hand. The hallmark of flow is a feeling of spontaneous joy, even rapture, while performing a task,[2] although flow is also described (below) as a deep focus on nothing but the activity – not even oneself or one’s emotions.

Flow has many of the same characteristics as (the positive aspects of) hyperfocus. However, hyperfocus is not always described in a positive light. Some examples include spending “too much” time playing video games or getting side-tracked and pleasurably absorbed by one aspect of an assignment or task to the detriment of the overall assignment. In some cases, hyperfocus can “capture” a person, perhaps causing them to appear unfocused or to start several projects, but complete few.

Jeanne Nakamura and Csíkszentmihályi identify the following six factors as encompassing an experience of flow.[3]

  1. Intense and focused concentration on the present moment
  2. Merging of action and awareness
  3. A loss of reflective self-consciousness
  4. A sense of personal control or agency over the situation or activity
  5. A distortion of temporal experience, one’s subjective experience of time is altered
  6. Experience of the activity as intrinsically rewarding, also referred to as autotelic experience

Those aspects can appear independently of each other, but only in combination do they constitute a so-called flow experience. Additionally, psychology expert, Kendra Cherry, has mentioned three other components that Csíkszentmihályi lists as being a part of the flow experience:[4]

  1. “Immediate feedback” [4]
  2. Feeling that you have the potential to succeed
  3. Feeling so engrossed in the experience, that other needs become negligible

Just as with the conditions listed above, these conditions can be independent of one another.

A flow state can be entered while performing any activity, although it is most likely to occur when one is wholeheartedly performing a task or activity for intrinsic purposes.[7][11] Passive activities like taking a bath or even watching TV usually do not elicit flow experiences as individuals have to actively do something to enter a flow state.[12][13] While the activities that induce flow may vary and be multifaceted, Csikszentmihályi asserts that the experience of flow is similar despite the activity.[14]

Flow theory postulates three conditions that have to be met to achieve a flow state:

  1. One must be involved in an activity with a clear set of goals and progress. This adds direction and structure to the task.[15]
  2. The task at hand must have clear and immediate feedback. This helps the person negotiate any changing demands and allows them to adjust their performance to maintain the flow state.[15]
  3. One must have a good balance between the perceived challenges of the task at hand and their own perceived skills. One must have confidence in one’s ability to complete the task at hand.[15]

However, it was argued that the antecedent factors of flow are interrelated, as a perceived balance between challenges and skills requires that one knows what he or she has to do (clear goals) and how successful he or she is in doing it (immediate feedback). Thus, a perceived fit of skills and task demands can be identified as the central precondition of flow experiences.[16]

In 1987, Massimini, Csíkszentmihályi and Carli published the 8-channel model of flow shown here.[17] Antonella Delle Fave, who worked with Fausto Massimini at the University of Milan, now calls this graph the Experience Fluctuation Model.[18] The Experience Fluctuation Model depicts the channels of experience that result from different levels of perceived challenges and perceived skills. This graph illustrates one further aspect of flow: it is more likely to occur when the activity at hand is a higher-than-average challenge (above the center point) and the individual has above-average skills (to the right of the center point).[7] The center of this graph (where the sectors meet) represents one’s average levels of challenge and skill across all activities an individual performs during their daily life. The further from the center an experience is, the greater the intensity of that state of being (whether it is flow or anxiety or boredom or relaxation).[11]

Several problems of this model have been discussed in literature.[16][19] One is, that it does not ensure a perceived balance between challenges and skills which is supposed to be the central precondition of flow experiences. Individuals with a low average level of skills and a high average level of challenges (or the other way round) do not necessarily experience a fit between skills and challenges when both are above their individual average.[20] In addition, one study found that low challenge situations which were surpassed by skill were associated with enjoyment, relaxation, and happiness, which, they claim, is contrary to flow theory.[21]

Schaffer (2013) proposed 7 flow conditions:

  1. Knowing what to do
  2. Knowing how to do it
  3. Knowing how well you are doing
  4. Knowing where to go (if navigation is involved)
  5. High perceived challenges
  6. High perceived skills
  7. Freedom from distractions[22]

Schaffer also published a measure, the Flow Condition Questionnaire (FCQ), to measure each of these 7 flow conditions for any given task or activity.[22]

 


the future

What the Marshmallow Test Really Teaches About Self-Control JACOBA URIST SEP 24, 2014 One of the most influential modern psychologists, Walter Mischel, addresses misconceptions about his study, and discusses how both adults and kids can master willpower. Published on Dec 14, 2012 Silvia Helena Barcellos is an Associate Economist at RAND Corporation, Santa Monica Office. […]

What the Marshmallow Test Really Teaches About Self-Control

One of the most influential modern psychologists, Walter Mischel, addresses misconceptions about his study, and discusses how both adults and kids can master willpower.

Published on Dec 14, 2012
Silvia Helena Barcellos is an Associate Economist at RAND Corporation, Santa Monica Office. Her research focuses on applied microeconomics topics in labor and development economics. Her labor economics research includes works on the economic causes and consequences of immigration to the United States and on the effects of taxation on location and organizational choices of firms and individuals. In research on development economics, Barcellos has investigated the existence of gender discrimination in parental time investments in India.

The Stanford marshmallow experiment[1] was a series of studies on delayed gratification in the late 1960s and early 1970s led by psychologist Walter Mischel, then a professor at Stanford University. In these studies, a child was offered a choice between one small reward provided immediately or two small rewards (i.e., a larger later reward) if they waited for a short period, approximately 15 minutes, during which the tester left the room and then returned. (The reward was sometimes a marshmallow, but often a cookie or apretzel.) In follow-up studies, the researchers found that children who were able to wait longer for the preferred rewards tended to have better life outcomes, as measured by SAT scores,[2] educational attainment,[3] body mass index (BMI),[4] and other life measures.[5]

The experiment has its roots in an earlier one performed in Trinidad, where Mischel noticed that the different ethnic groups living on the island had contrasting stereotypes about one another, specifically the other’s perceived recklessness, self-control, and ability to have fun.[6] This small (n= 53) study focused on male and female children aged 7 to 9 (35Black and 18 East Indian) in a rural Trinidad school. The children were required to indicate a choice between receiving a 1¢ candy immediately, or having a (preferable) 10¢ candy given to them in one week’s time. Mischel reported a significant ethnic difference, with Indian children showing far more ability to delay gratification as compared to African students, as well as large age differences, and that “Comparison of the ‘high’ versus ‘low’ socioeconomic groups on the experimental choice did not yield a significant difference”.[6] Absence of the father was prevalent in the African-descent group (occurring only once in the East Indian group), and this variable showed the strongest link to delay of gratification, with children from intact families showing superior ability to delay.