martes, marzo 9, 2021

Microsoft presenta Mesh, sorprendente plataforma de realidad mixta que permite celebrar reuniones con hologramas

Las comunicaciones en la plataforma se basan en hologramas que utilizan tecnología de captura en 3D para proyectar una imagen real de una persona en un escenario virtual.

Microsoft presentó este martes Mesh, una plataforma de realidad mixta que permite a sus usuarios celebrar reuniones a través de hologramas mientras se encuentran en lugares distintos. La presentación tuvo lugar durante la conferencia de desarrolladores de la compañía Ignite, que este año se celebra en formato completamente remoto a causa de la pandemia del covid-19.

Las comunicaciones en la plataforma se basan en hologramas que utilizan tecnología de captura en 3D para proyectar una imagen real de una persona en un escenario virtual y crear avatares virtuales que pueden comunicarse entre sí y interactuar con objetos en los espacios físicos.

“Puedes sentirte como si estuvieras en el mismo lugar con alguien compartiendo contenidos o puedes teletransportarte desde diferentes dispositivos de realidad mixta y estar presente con la gente aunque no estén físicamente juntos“, explicó Alex Klipman, miembro técnico de Microsoft, quien apareció en la conferencia en forma de un holograma completo de sí mismo.

Construida sobre la base de Azure, un servicio de computación en la nube de Microsoft, Mesh se beneficiará de la seguridad y la privacidad de ese servicio, ya que el contenido holográfico estará en la nube y se necesitarán unos lentes especiales para poder verlo.

La nueva plataforma estará disponible mediante HoloLens 2, unas gafas inteligentes de realidad mixta, así como con una gama de auriculares de realidad virtual, teléfonos inteligentes, tabletas y ordenadores.

Posibles aplicaciones de Mesh en distintas esferas de la vida

Aparte de las salas de reuniones virtuales con hologramas de los participantes, la esfera de uso de la nueva plataforma podría ser muy amplia. Así, las compañías turísticas podrán compartir las experiencias de un viaje virtual, mientras que especialistas de todo tipo (por ejemplo, ingenieros, arquitectos, diseñadores o médicos) tendrán la oportunidad de crear modelos virtuales de los objetos sobre los cuales realizan sus trabajos, como hologramas de edificios, coches o motores a reacción.

Asimismo, Ocean X, una entidad sin ánimo de lucro que se dedica a la exploración de los océanos y a concienciar sobre su conservación, anunció que va a cooperar con Microsoft para crear “un laboratorio holográfico” a bordo de su buque de investigación OceanXplorer que permitirá reunirse a científicos de todo el mundo para observar y analizar las hologramas 3D de las áreas que la nave explora.

“La idea es tomar todos estos increíbles datos científicos que estamos recogiendo y llevarlos a un entorno holográfico y utilizarlos como una forma de guiar las misiones científicas en tiempo real”, comentó Vicent Pieribone, vicepresidente de OceanX.

China se convierte en el primer país del mundo con más de 1.000 multimillonarios

Durante el año pasado, el gigante asiático sumó 259 nuevos súper ricos, más que que el resto de países juntos, según la Hurun Rich List 2021.

China se ha convertido en el primer país del mundo que supera el millar de multimillonarios, con un total de 1.058, lo que supone un aumento de 259 grandes fortunas respecto al año anterior, según la Hurun Rich List 2021, publicada este martes.

El segundo puesto lo ocupa Estados Unidos, con 696, mientras que el tercer lugar corresponde a la India (177), seguida de Alemania, Reino Unido, Suiza y Rusia, donde viven 141, 134, 100 y 85 multimillonarios, respectivamente.

Con una edad promedio de 65 años, 2.312 multimillonarios vieron aumentar su riqueza a lo largo del último año, de los que 610 eran caras nuevas. En este periodo de tiempo, 32 murieron y 282 fortunas no experimentaron cambios, según la clasificación.

“Mayor aumento de riqueza”

“Pese a la interrupción causada por el covid-19, este año ha sido testigo del mayor aumento de riqueza de la última década”, explica en el informe Rupert Hoogewerf, presidente e investigador jefe de Hurun Report.

En este sentido, subraya que “el mundo jamás ha visto tanta riqueza creada en un solo año”, y recuerda que el año pasado se generaron ocho nuevos multimillonarios a la semana debido al auge de los mercados de valores, impulsado, en parte, por la “flexibilización cuantitativa”.

“La velocidad de creación de riqueza es asombrosa”, continúa Hoogewerf. Asimismo, llama la atención sobre el hecho de que tres personas sumaran más de 50.000 millones de dólares en esos doce meses, liderados por Elon Musk, director general de Tesla y SpaceX, que vio como su fortuna aumentó en 151.000 millones de dólares.

Tendencia alcista

Le siguen los multimillonarios del comercio electrónico Jeff Bezos, de Amazon, y Colin Huang, de Pinduoduo, que se embolsaron 50.000 millones de dólares cada uno. “A este ritmo, se espera ver que cincuenta o más superen la marca de los 100.000 millones de dólares en los próximos cinco años”, añade el texto.

Por otro lado, la lista Hurun recalca que, pese a la guerra comercial con EE.UU., en 2020 China sumó más multimillonarios que el resto de países juntos, y ha aumentado todavía más la diferencia con el país norteamericano.

De hecho, en los últimos cinco años, el gigante asiático ha sumado 490 multimillonarios, frente a los 160 de EE.UU. “Así tiene, por primera vez en, quizás, quinientos años, más multimillonarios que el resto del mundo combinado”, asegura el informe. “La creación de riqueza se está trasladando a Asia”, concluye.

Tres tipos de sesgos en los modelos de IA y cómo podemos abordarlos

Un modelo de IA sesgado debe haber aprendido una relación sesgada entre sus entradas y salidas. 

Las herramientas de toma de decisiones automatizadas son cada vez más omnipresentes en nuestro mundo. Sin embargo, muchos de los modelos de aprendizaje automático (ML) detrás de ellos, desde los sistemas de reconocimiento facial hasta los anuncios en línea , muestran una clara evidencia de prejuicios raciales y de género. A medida que los modelos de ML se adoptan más ampliamente, se necesita especial cuidado y experiencia para garantizar que la inteligencia artificial (IA) mejore los resultados de manera justa.

Los modelos de AA deben apuntar y eliminar los sesgos en lugar de exacerbar la discriminación. Pero para construir modelos de IA justos, primero debemos crear mejores métodos para identificar las causas fundamentales del sesgo en la IA. Debemos entender cómo un modelo de IA sesgado aprende una relación sesgada entre sus entradas y salidas.

Los investigadores han identificado tres categorías de sesgo en la IA : prejuicio algorítmico, legado negativo y subestimación. El prejuicio algorítmico ocurre cuando existe una dependencia estadística entre las características protegidas y otra información utilizada para tomar una decisión. El legado negativo se refiere al sesgo ya presente en los datos utilizados para entrenar el modelo de IA. La subestimación ocurre cuando no hay suficientes datos para que el modelo saque conclusiones confiables para algunos segmentos de la población.

Profundicemos en cada uno de estos. 

Prejuicio algorítmico

El prejuicio algorítmico se deriva de las correlaciones entre las características protegidas y otros factores. Cuando esto sucede, no podemos reducir el sesgo simplemente eliminando las características protegidas de nuestro análisis porque la correlación puede llevar a decisiones sesgadas basadas en factores no protegidos. 

Por ejemplo, los primeros algoritmos de vigilancia policial predictiva no tenían acceso a datos raciales al hacer predicciones, pero los modelos dependían en gran medida de datos geográficos (por ejemplo, código postal), que se correlacionan con la raza. De esta manera, los modelos que son “ciegos” a los datos demográficos como el género y la raza aún pueden codificar esta información a través de otras características que están correlacionadas estadísticamente con atributos protegidos.

La Oficina de Protección Financiera del Consumidor, que trabaja para garantizar que los prestamistas cumplan con las leyes de préstamos justos, ha encontrado métodos estadísticos que combinan información basada en la geografía y el apellido en una probabilidad aproximada altamente confiable para la raza y el origen étnico. Estos hallazgos refutan la idea errónea prevalente de que un algoritmo será automáticamente menos sesgado si no se le da acceso a clases protegidas. Este fenómeno, conocido como discriminación por poder, puede mitigarse una vez que se identifica la causa raíz. Es decir, las infracciones se pueden reparar localizando cálculos intermedios dentro de un modelo que crea la característica de proxy y reemplazándolos con valores que están menos correlacionados con el atributo protegido. 

Contrariamente a la intuición, la solución ingenua de eliminar las características protegidas del entrenamiento del modelo en realidad puede dañar a los grupos que ya están en desventaja en ciertos casos. En el sistema judicial de EE. UU., Por ejemplo, las autoridades penitenciarias y las juntas de libertad condicional utilizan listas de verificación de factores de riesgo para tomar decisiones justas sobre el encarcelamiento y la liberación. Cuando tanto los humanos como los modelos de IA tienen información básica como el género, la edad, el cargo actual y el número de delitos previos de adultos y menores, los humanos y los modelos funcionan de manera comparable. 

Sin embargo, al proporcionar a los humanos y a los modelos 10 factores de riesgo adicionales relacionados con la educación y el uso de sustancias, los investigadores encontraron que los modelos de aprendizaje automático son más precisos y menos propensos a sesgos . Esto subraya la necesidad de comprender la causa raíz del sesgo de un modelo de IA en lugar de emplear ciegamente estrategias de remediación. 

Legado negativo

También es posible que el sesgo de un algoritmo se deba directamente a un sesgo análogo presente en sus datos de entrenamiento. Por ejemplo, los modelos de aprendizaje automático capacitados para realizar tareas de traducción de idiomas tendían a asociar nombres femeninos con atributos como “padres” y “bodas”, mientras que los nombres masculinos tenían una asociación más fuerte con palabras como “profesional” y “salario”. Es poco probable que el modelo esté recogiendo esta asociación por sí solo; más bien, está entrenado en un corpus de texto que refleja estos tropos de género. Este es un ejemplo de legado negativo 

Dentro del procesamiento del lenguaje natural, el sesgo de género es un problema preocupante pero bien estudiado: una comprensión clara de su causa presenta vías para corregirlo. En idiomas como el inglés, donde los sustantivos y adjetivos tienden a no tener un género, los investigadores han encontrado formas de hacer cumplir las incrustaciones de palabras para permanecer neutrales al género . En otros casos en los que el lenguaje tiene un género inherente, los corpus del lenguaje se pueden aumentar para evitar sesgos mediante la introducción de nuevos ejemplos que rompan las asociaciones causales entre las palabras de género y las neutrales al género. 

En otras áreas de aplicación, el legado negativo puede ser uno de los tipos de sesgo más difíciles de mitigar, ya que el sesgo está intrínsecamente integrado en el conjunto de datos del que aprende el modelo de aprendizaje automático. Como tal, el modelo puede codificar años de sesgo sistémico contra una población. Por ejemplo, hacer una línea roja o negar préstamos sistemáticamente a las personas en función del lugar donde viven puede sesgar los conjuntos de datos de aprobación de préstamos hacia los blancos. Este sesgo en los datos conduce a un comportamiento sesgado del modelo de IA. 

Si bien las estrategias de mitigación de sesgos existentes podrían intentar aumentar las tasas de aceptación de crédito para los solicitantes negros, esto podría ocultar la verdadera causa del sesgo del modelo y dificultar la resolución del problema subyacente. Se ha demostrado que los puntajes FICO, comúnmente utilizados como insumos en las decisiones crediticias, exhiben discriminación racial . En este caso, las estrategias de mitigación de sesgos post-hoc serían menos efectivas que buscar fuentes de datos alternativas que también exhiban conexiones causales con la solvencia crediticia. Por lo tanto, el legado negativo podría mitigarse encontrando datos alternativos.

Subestimación

Así como los datos pueden estar sesgados, también pueden ser insuficientes. Sin suficientes datos, los modelos de aprendizaje automático pueden fallar al converger o proporcionar predicciones confiables. 

Este es el problema de la subestimación. Amazon recientemente entrenó un modelo de aprendizaje automático para seleccionar a los solicitantes en su proceso de contratación, pero al igual que muchas otras empresas de tecnología, Amazon tiene una fuerza laboral desproporcionadamente masculina. 

Este desequilibrio de datos hizo que su modelo de inteligencia artificial tuviera más confianza al evaluar a los hombres, lo que llevó a recomendaciones más sólidas para los solicitantes masculinos. Al reconocer el sesgo en las recomendaciones hechas por el modelo, Amazon eliminó este modelo de su canal de reclutamiento. 

Es posible que Amazon haya podido construir una herramienta de reclutamiento imparcial si hubiera buscado más o mejores datos, pero sin una comprensión adecuada de por qué surgió el sesgo, esto hubiera sido imposible. En el caso de la subestimación, la certeza de un modelo de sus predicciones se puede analizar en subgrupos de la población, y el conjunto de datos subyacente se puede diversificar aumentándolo automáticamente con nuevas instancias .

Las medidas de certeza y estabilidad del modelo en una población son fundamentales para comprender si un modelo está preparado para hacer predicciones creíbles para todos los grupos de personas. En el caso de la subestimación, el conjunto de datos proporcionado no es lo suficientemente expresivo para capturar los matices de los datos. Sin embargo, las técnicas de entrenamiento contradictorio para promover la equidad o las estrategias de mitigación de sesgos post-hoc probablemente no serán tan exitosas como aumentar el conjunto de datos para que sea más completo.

No es ningún secreto que los algoritmos pueden codificar y perpetuar el sesgo, y esto puede tener consecuencias devastadoras. Pero si bien esto pinta una imagen sombría, es importante recordar que el sesgo algorítmico (a diferencia del sesgo humano) es, en última instancia, cuantificable y reparable si se trata de manera adecuada. En lugar de adoptar un enfoque ciego para reducir el sesgo de la IA, una comprensión precisa de las verdaderas causas detrás del sesgo es esencial para implementar una IA segura y confiable.

Si bien estas causas son complejas, los investigadores continúan desarrollando mejores formas de medir resultados dispares para grupos específicos , identificar características específicas que causan estas diferencias y elegir estrategias de mitigación razonables para fuentes específicas de sesgo. A medida que se automatizan más decisiones, debemos combatir el sesgo desde sus raíces para crear modelos justos y equitativos.

Anupam Datta es profesor de ingeniería eléctrica e informática en la Universidad Carnegie Mellon y científico jefe de Truera . Divya Gopinath, ingeniero de investigación de Truera, Mesi Kebed, ingeniero de Truera, Shayak Sen, director técnico de Truera, y John C. Mitchell, profesor de informática e ingeniería eléctrica en la Universidad de Stanford, contribuyeron a este artículo.

Investors Bet $40M On Startup LyteLoop’s Vision of Data Storage in Space

The company plans to launch a network of satellites that would store data by beaming light back and forth between the nodes.

Would you want to store your data in space? LyteLoop Technologies thinks so, and it just raised $40 million in private financing to make a space-based data storage center a reality.

The five-year-old startup, based in Great Neck, New York, is developing technology for storing data in orbit, on board satellites. It will be more environmentally friendly, secure, scalable, and private than traditional data centers on Earth, LyteLoop CEO Ohad Harlev told DCK.

“This is literally a cloud above the clouds,” he said.

LyteLoop’s technology stores data on photons (light) and the data is constantly moving in a continuous loop between satellites. The company plans to launch six proof-of-concept satellites within three years and go live with a data storage service in five years. The $40 million raised will allow the startup to quadruple its team and hire the engineers and scientists it needs to perfect its technology and launch the satellites.

“We are a storage company. We are storing data in a different medium – on photons – and in our case, in space,” Harlev said. “The essence is that we have communications links and photons going back and forth. That back and forth is the storage medium.”

LyteLoop is not the only company attempting to store data in space or seeking more sustainable, secure, or scalable alternatives to traditional terrestrial data centers. Cloud Constellation, based in Los Angeles, has previously announced plans to use low-orbit satellites to provide customers with cloud storage that it says is more secure than earthbound data centers. 

Enterprises have a huge need for more affordable storage. If space-based data storage technology works and it’s low-cost, then these satellite-based startups have a ready-made market, said Omdia data storage analyst Dennis Hahn.

Businesses are generating massive amounts of data, not just from customers but from machines such as IoT sensors, he said. These companies are storing everything they can afford to store, but if data storage were even more affordable, they would keep even more data for data analytics, he said.

“There is a thirst for lower-cost storage to store massive amounts of data that organizations are throwing away today that they may find useful in the future to optimize their businesses and for a competitive advantage,” Hahn said.

Other companies are also thinking outside the box when it comes to future data centers. One of them, famously, is looking below sea level to meet demand for data center capacity, particularly in high-population areas with land or power constraints.

Microsoft in 2018 wanted to test the feasibility of underwater data centers to serve high-population coastal areas, so it submerged a cylinder-shaped container housing 864 servers off the coast of Scotland.

Last September, Microsoft fetched the solar and wind-powered data center from the ocean floor and said the two-year experiment was a success. Not only was the data center green and sustainable, according to the company, but its servers also had greater reliability, giving Microsoft more environmentally friendly data storage options in the future.

Low Power, Low-Cost, Low-Latency

LyteLoop can make its technology work on Earth in large tubes, smaller cells, and with fiber optics, but the company’s top priority is to build space-based data storage centers, said Harlev, who previously worked in satellite operations.

“For the technology to work, it needs to operate in a vacuum or near-vacuum, and space gives that for free,” he said.

The company’s primary target customers will be organizations that need to store a lot of data: enterprises focused on the business-to-business market and enterprises that have strong data security, privacy, or governance requirements, he said.

LyteLoop’s satellite-based storage will be more secure because the data will reside in space and because the data moves at the speed of light and is constantly in motion between satellites, making it much harder to hack into, Harlev said. The company plans to use quantum encryption, which he said is unbreakable.

Privacy is improved because customers don’t have to worry about data sovereignty rules and worrying what country their data resides in, because the data resides in space, he added.

LyteLoop is also more scalable than traditional data centers because the startup uses what it calls “angle multiplexing.” By creating more paths for light to travel, the company can add more storage capacity, he said.

It will cost LyteLoop more to launch satellites and build a space-based data storage center than traditional data centers, but Harlev claims that the cost of operating and managing an exabyte of storage in space is less than 1/10th the cost of operating a data center on Earth.

“To manage a full constellation of 100s of satellites is measured in the single digit millions of dollars per year,” he said.

The result is that the company’s total cost of ownership in space will be much lower over a 10-year period when compared with building and managing comparable data centers on Earth, according to Harlev.

Part of the cost savings comes from the fact that LyteLoop’s technology is much more environmentally friendly. It runs on solar power, doesn’t need millions of gallons of water to cool equipment or use raw materials for storage hardware, he said.

“It’s a lot greener,” Harlev said. “Data center usage (on Earth) is usually measured in megawatts, but to put things in perspective, we are talking about using a fraction of the power – in the kilowatts. You can store exabytes of data with, give or take, 35 to 40kW of power.”

Users will be able to access the data the same way they’ve done before. The user on Earth requests a file, the request goes from an Earth station to a gateway satellite to the LyteLoop satellites. The data gets transferred the same way back down.

“It’s extremely fast. Latency-wise, we are sub-45 milliseconds end-to-end,” he said.

Harlev is focused on data storage in space, but he said he has had discussions with potential partners who can put servers in space as well. Combined, they could potentially offer full data center services, allowing customers to perform data analytics in space, he said.

“One thing we keep saying about this market: everyone is doing small, evolutionary steps [to improve data center technology]. ‘I’ve increased my hard drive by a bit or improved the PUE,’” he said. “We at LyteLoop are revolutionary from the technical side, but it’s completely the same for the user experience and managers of the data.”

Why Microsoft Azure wins with enterprise customers

In the cloud wars, Microsoft often comes off as second best to Amazon Web Services. But when it comes to established enterprises Azure wins more often than not. Here’s why.

As the old IT truism goes, nobody ever got fired for buying IBM. Now, in the cloud era, many are starting to apply the same logic to another well-known vendor: Microsoft.

For enterprises with extensive Microsoft footprints—spanning Office, Windows, Dynamics, Outlook, and other popular business applications—turning to Microsoft Azure services as part of a cloud strategy can certainly look like the path of least resistance.

“If you have to move to the cloud with constrained resources, it is a safer path to go with Microsoft and use many of the tools your employees are familiar with,” said Carla Arend, senior program director for software and infrastructure at IDC in Europe.

While Amazon Web Services (AWS) remains the clear market leader for pure cloud infrastructure, Microsoft is catching up. And the lingering effects of the pandemic are helping it gain ground fast.

In a January 2021 earnings call, Microsoft CEO Satya Nadella touted record cloud earnings—which includes revenue from Office 365 and other business applications—of $16 billion for the quarter, which was up a staggering 34% year-over-year. 

Azure has since reached a 20% share of the cloud infrastructure market, according to Synergy Research, up from 10% in 2017. Microsoft’s ability to flex its sizable sales muscle and leverage its partner ecosystem to cross-sell Azure has helped it grow the cloud division into one of the primary providers in the market.

“Digital capability is key to both resilience and growth. It’s no longer enough to just adopt technology. Businesses need to build their own technology to compete and grow. Microsoft is powering this shift with the world’s largest and most comprehensive cloud platform,” Nadella gushed. Despite his self-interested enthusiasm, there is truth to what Nadella said about Microsoft’s place in the cloud.

Better the devil you know, and for many that devil is Microsoft

Microsoft’s deep roots in the enterprise, mainly around user-facing technologies, certainly appeals to midsize enterprises that may be lagging in their digital strategies and that are looking for a trusted partner to help ramp up their cloud usage. “For midsize and conservative organizations, the business tends to be Azure’s to lose,” said Paul Miller, a principal analyst at Forrester Research.

“Trust” is a word that comes up a lot when taking about Microsoft Azure. “The last part is around trust, how trusted is the partner? Microsoft has built out certifications and compliance and invested a lot to build that trust,” IDC’s Arend said.

“That sense of trust was absolutely critical,” said Andrew Proctor, pro vice-chancellor for digital at Staffordshire University, which in 2017 decided to go “all-in” on Azure as part of a broad partnership. “It was a strategic decision at an executive level based less on technology and more on what would be the opportunity for us,” he said.

Staffordshire University in the north of England has plenty of heritage when it comes to technology, with a sizable computer science department, a digital institute in the Queen Elizabeth Olympic Park in London, and having broken new ground as the UK’s first university to offer a degree in e-sports.

At the time the university made its “all-in” decision, Microsoft had an established foothold across the UK education sector, so the university decided to build its future capabilities around the vendor and its partners. “We looked strategically at how we could establish a platform for transformation and worked with Microsoft to do that,” Proctor said. “There is always that inherent familiarity with Microsoft products within an IT team, so that would have helped with the migration.”

Government is another area where Microsoft has been able to find good momentum. It has recently signed wide-ranging deals with the UK government and secured one of its biggest ever deals in this space by beating out AWS and other rivals for the controversial $10 billion Joint Enterprise Defense Infrastructure (JEDI) contract from the United States Department of Defense in 2020.

Leveraging your existing Microsoft skills

The familiarity with Microsoft tools and technology can help ease a cloud transition. “Those with a large legacy estate that are starting a digital journey will see Microsoft as the least disruptive, because they have the skills and partnerships and commercial relationships already,” said IDC’s Arend.

This was certainly the case for the Danish shipping and logistics giant Maersk, which has been steadily transitioning to the cloud since 2016 as part of a broader organizational shift toward being a more integrated logistics company.

On the architecture side, this meant shifting from a heavily on-premises setup, where each business unit had its own data center footprint, to becoming a more centralized, cloud-first company.

“A lot of the skills coming in at that time were Microsoft-based, both on the server side and Azure and on Microsoft development tools and techniques, so there was a natural fit there,” said Will Wigmore, head of enterprise architecture at Maersk. About a third of all company workloads are now running in the Azure cloud, both IaaS and PaaS, including a major project to shift Maersk’s existing SAP HANA system to run on Azure infrastructure.

Upgrading to Azure step by step

The first incremental steps with the Azure cloud tend to manifest as an upgrade to an existing Microsoft system, such as Active Directory or Dynamics being moved to the Azure cloud. This gives Microsoft an entry point its rivals do not have, either by helping a customer dip its toe in the water by moving an existing SaaS application to the cloud or by providing an Azure platform as a service for developers to build and rearchitect applications on.

“For companies that have been Microsoft shops, it has been made easy,” said Forrester’s Miller. “If you are a very structured IT organization, there is no way for a developer to go and try AWS themselves; it has to go through a central procurement process, which gives [Microsoft] a huge in-built advantage.”

This fit-for-purpose strategy has shifted the target buyer for enterprise cloud usage, a fact that AWS is clearly aware of as it tries to tweak its messaging to appeal more to business decision makers rather than its core customer base of software developers.

“The buyer persona has shifted,” said Ed Anderson, a research VP at Gartner. “AWS did well in that early adopter phase where customers were more willing to embrace disruption and new models. That’s not typically the buyer profile today, which is more conservative and want to take a more incremental path to the cloud. Microsoft has marketed well to that.”

Using hybrid and multicloud to onboard customers—and keep them for the long term

Microsoft has also helped itself with the middle market by providing plenty of effective onramps for organizations to get to grips with its services.

Unlike AWS, which has long pushed back against what are commonly known as hybrid cloud systems, and Google Cloud, which has never had the same enterprise sales muscle as its rivals, Azure has long helped customers run applications where they want them to be.

This gives customers a convenient entry point to the cloud and a good reason to stick with Azure long term, even if they reconsider putting all their eggs in one basket to limit their exposure.

After going all-in on Azure in 2017, Staffordshire University has since shifted to a multicloud approach with some AWS usage, to protect against vendor lock-in. But it retains a significant portion of its cloud stack on Azure.

Likewise, Maersk has a multicloud strategy, running various workloads with its longtime partner IBM and also on Google Cloud. But most of its cloud adoption is being driven by a five-year strategic partnership with Microsoft Azure, which is set to run through to 2022.

The launch of Azure Stack in 2016 let customers use a set of resources and similar functional experience to the Azure public cloud, but from the comfort of their own data center. Azure Stack lets more conservative organizations slowly ramp up their comfort level as they start to identify the best workloads to move into the public cloud proper.

Microsoft continued to build on this approach in 2019 with the release of Azure Arc, which aims to help customers manage both on-premises and containerized resources in a cloud-like way, similar to what Google Cloud is doing with Anthos. AWS has made some moves in this direction, but has stopped short of full multicloud support.

Microsoft has also had some success with industry-specific offerings such as its healthcare and retail options, intended to ease cloud adoption in those specific sectors using the same incremental approach.

Is Amazon a friend or foe? That question colors AWS investments

Another under-the-radar factor that can help Microsoft when dealing with certain industries, especially in sectors like retail and logistics, is an organizational suspicion of Amazon as a competitor preparing to eat their lunch.

“As the ambitions of Amazon’s CEO expand into additional markets, the boards of directors for companies in potentially threatened verticals have directed their IT organizations to avoid the use of AWS where possible,” note the authors of Gartner’s 2019 Magic Quadrant for cloud infrastructure as a service. “IT leaders in these verticals should consider a contingency plan for board-level directives,” the Gartner analysts wrote.

Take Maersk as an example. “If I go back to 2017, we weren’t sure if Amazon was a friend or a foe in terms of the supply chain business,” Wigmore admitted.

Watch out, AWS. Microsoft is coming on strong

Depending on whom you talk to—and your appetite for knotty financial accounting questions like “Is Office 365 cloud?”—AWS and Microsoft Azure are the clear cloud market leaders today, and will be for the foreseeable future.

What is clear is that the various levels of familiarity and expertise Microsoft can bring to enterprise engagements enables the company to provide a comfort blanket that is greatly appreciated by more risk-averse organizations.

This not only puts Microsoft in a strong position to snap up the next wave of cloud adoption, but also suggests a changing of the guard when it comes to cloud buyers, from developers with a corporate credit card to CIOs and architects with a clearly defined strategy, one that will play neatly into Microsoft’s master plan.

Visual Studio Code vs. Visual Studio: How to choose

Deciding between Visual Studio Code and Visual Studio may depend as much on your work style as on the language support and features you need. Here’s how to decide.

For decades, when I got to work in the morning, I would start Microsoft Visual Studio (or one of its predecessors, such as Visual C++ or Visual InterDev), then brew tea and possibly attend a morning meeting while it went through its laborious startup. I would keep the IDE open all day as I went through develop/test/debug cycles to avoid another startup delay. When I worked on a C++ project with ~2 million lines of code, I also jump-started each day’s work by automatically running a batch script that did a code checkout and full rebuild of the product in the wee hours.

These days, I don’t feel the need to open my code projects first thing every morning, or to keep them open all day. Visual Studio Code usually starts up quickly enough that I can be productive in a few minutes, even for large projects. I said usually, not always: Visual Studio Code itself needs a monthly update, and the many extensions I have installed often need their own updates. Still, even updating a dozen extensions in Visual Studio Code takes much less time than Visual Studio takes to rebuild the symbol tables of a large C++ project.

What is Visual Studio Code?

Visual Studio Code is a lightweight but powerful source code editor that runs on your desktop and is available for Windows, MacOS, and Linux. It comes with built-in support for JavaScript, TypeScript, and Node.js and has a rich ecosystem of extensions for other languages (such as C++, C#, Java, Python, PHP, and Go) and runtimes (such as .Net and Unity).

Aside from the whole idea of being lightweight and starting quickly, VS Code has IntelliSense code completion for variables, methods, and imported modules; graphical debugging; linting, multi-cursor editing, parameter hints, and other powerful editing features; snazzy code navigation and refactoring; and built-in source code control including Git support. Much of this was adapted from Visual Studio technology.

VS Code proper is built using the Electron shellNode.jsTypeScript, and the Language Server protocol, and is updated on a monthly basis. The extensions are updated as often as needed. The richness of support varies across the different programming languages and their extensions, ranging from simple syntax highlighting and bracket matching to debugging and refactoring. You can add basic support for your favorite language through TextMate colorizers if no language server is available.

The code in the Visual Studio Code repository is open source under the MIT License. The VS Code product itself ships under a standard Microsoft product license, as it has a small percentage of Microsoft-specific customizations. It’s free despite the commercial license.

What is Visual Studio?

Visual Studio (current version Visual Studio 2019) is Microsoft’s premier IDE for Windows and MacOS. With Visual Studio, you can develop, analyze, debug, test, collaborate, and deploy your software.

On Windows, Visual Studio 2019 currently has 17 workloads, which are consistent tool and component installation bundles for different development targets. Workloads are an important improvement to the Visual Studio installation process, because a full download and installation of Visual Studio 2019 can easily take hours and fill a disk, especially an SSD.

Visual Studio 2019 for Mac has a less complicated installer than the Windows version, mostly because it doesn’t support as many targets. It allows you to develop for web, mobile, and desktop with .Net, with Unity, Azure, and Docker support included by default. The .Net Core, Android, iOS, and MacOS targets are optional; the latter three use Xamarin.

Visual Studio 2019 comes in three SKUs: Community (free, not supported for enterprise use), Professional ($1,199 first year/$799 renewal), and Enterprise ($5,999 first year/$2,569 renewal). The Enterprise Edition has features for architects, advanced debugging, and testing that the other two SKUs lack.

Visual Studio or Visual Studio Code?

You would think that deciding between Visual Studio and Visual Studio Code for any given software development task would be as simple as deciding between an IDE and an editor. It’s not, mostly because VS Code can be configured to be quite close to an IDE for many programming languages. However, along this configurability come a number of trade-offs.

For example, if your development style is test-driven, Visual Studio will work right out of the box. On the other hand, there are some 15 test-driven development extensions for VS Code supporting Node.js, Go, .Net, and PHP. Similarly, Visual Studio does a good job working with databases, especially Microsoft SQL Server and its relatives, but VS Code has lots of database extensions. Visual Studio has great refactoring support, but Visual Studio Code implements the basic refactoring operations for half a dozen languages.

There are a few clear-cut cases. For instance, if you are a software architect and you have access to Visual Studio Enterprise, you’ll want to use that. If you need to collaborate with team members on development or debugging, then Visual Studio is the better choice. If you need to do serious code analysis or performance profiling, or debug from a snapshot, then Visual Studio Enterprise will help you.

VS Code tends to be popular in the data science community. Nevertheless, Visual Studio 2019 has a data science workload that offers many features.

Visual Studio doesn’t run on Linux; VS Code does. On the other hand, Visual Studio for Windows has a Linux/C++ workload and Azure support.

For daily bread-and-butter develop/test/debug cycles in the languages supported in both Visual Studio and VS Code, which you choose really does boil down to personal preference. If you tend to work on a development project for hours at a time, then Visual Studio might be a better fit. If you tend to dip into development for brief periods and rotate between other tasks, then Visual Studio Code might make you happier.

AWS vs Azure vs Google Cloud: ¿Cuál es la mejor plataforma en la nube para empresas?

Es la batalla de la nube que define a nuestro tiempo: AWS vs Microsoft Azure vs Google Cloud Platform. ¿Quién puede ganar el mercado empresarial IaaS? Computerworld analiza los méritos de los tres grandes proveedores.

La adopción de la computación en la nube se ha convertido rápidamente en una fuerza impulsora clave para las empresas hoy en día, ya que las aplicaciones se trasladan fuera de los centros de datos locales en un intento por innovar, reducir costos y aumentar la agilidad.

La infraestructura como servicio (IaaS) es un modelo en el que un proveedor externo aloja y mantiene la infraestructura central, que incluye hardware, software, servidores y almacenamiento en nombre de un cliente. Por lo general, esto incluye el alojamiento de aplicaciones en un entorno altamente escalable, donde a los clientes solo se les cobra por la infraestructura que utilizan.

Las primeras preocupaciones sobre la seguridad y la soberanía de los datos han sido abordadas en gran medida por los “ tres grandes ” proveedores de nube pública: Amazon Web Services (AWS), Microsoft Azure y Google Cloud Platform, y solo las empresas más fuertemente reguladas continúan actuando con cuidado cuando se trata de a la adopción de servicios en la nube.

Esto ha impulsado un mercado de IaaS abarrotado, con un valor total de 64.300 millones de dólares en 2021, frente a los 50.400 millones de dólares en 2020, según las últimas cifras de la firma de investigación Gartner.

Es un mercado que ha estado dominado por AWS desde el primer día, cuando ingresó al sector en 2006. Ahora, las cifras de Synergy Research Group para el tercer trimestre de 2019 tienen a AWS como el claro líder del mercado a nivel mundial para la participación de mercado público de IaaS y PaaS con un 33%. seguido de Microsoft con 16 por ciento, Google con 8 por ciento y Alibaba con 5 por ciento. 

A pesar del dominio de AWS, Microsoft ha ganado terreno bajo el liderazgo del director ejecutivo “primero en la nube”, Satya Nadella, y ha creado una enorme red de nube global propia.

Luego está el gigante de Internet Google, que ha estado ocupado con sus servicios de nube pública y negocios de IaaS bajo Google Cloud Platform (GCP).

“Ha habido una carrera armamentista masiva en la computación en la nube durante los últimos 12 meses, pero ahora estamos comenzando a ver algunas diferencias reales entre los proveedores de la nube en términos de los acuerdos que están ganando en el mercado”, dice Nick McQuire, vicepresidente. de investigación empresarial en CSS Insight.

Entonces, ¿qué es lo que diferencia a cada uno de los ‘tres grandes’ proveedores de nube estadounidenses? ¿Y cómo puede empezar a decidir qué plataforma IaaS se adapta mejor a su organización?

Puntos fuertes

La selección de un proveedor de nube sobre los demás se reducirá a los deseos y necesidades de cada cliente individual y las cargas de trabajo que están ejecutando. A menudo ocurre que las organizaciones utilizarán múltiples proveedores en diferentes partes de sus operaciones, o para diferentes casos de uso, lo que se denomina enfoque de múltiples nubes.

Sin embargo, hay una serie de factores diferenciadores clave que separan los enfoques de las tres empresas, que pueden ayudar a los usuarios finales a considerar cuál es el adecuado para ellos.

Comenzando con AWS, la fortaleza clave para el líder del mercado continúa siendo la amplitud y profundidad de sus servicios , con más de 175 en computación, almacenamiento, bases de datos, análisis, redes, dispositivos móviles, herramientas para desarrolladores, herramientas de administración, IoT, seguridad y empresas. aplicaciones, en el último recuento.

“Sin duda el líder del mercado, AWS a menudo gana en funcionalidad de desarrollador, debido a la amplitud de sus servicios como resultado de su ventaja de primer paso. AWS también ha hecho un buen trabajo al traducir su escala en beneficios económicos para los clientes, aunque hay momentos en los que la nube puede tener un costo prohibitivo “, como dice McQuire en CSS Insight.

Ray Wang, fundador y analista principal de Constellation Research, identifica fortalezas similares con la propuesta de AWS, pero destaca que “un desafío es la fijación de precios en AWS, donde muchas empresas no comprenden completamente las métricas y el impacto en las decisiones arquitectónicas y los costos de apoyar ciertos servicios “.

Microsoft, por otro lado, tiende a ser una opción popular entre los ejecutivos de nivel C que tienen relaciones duraderas con el proveedor y saben que pueden consumir gran parte de sus necesidades informáticas empresariales en un solo lugar, desde la productividad y el software empresarial. el camino hacia los recursos flexibles de computación en la nube para sus desarrolladores, con una mano para estrechar.

Wang también posiciona a Microsoft como “un fuerte número dos para AWS”, gracias a su combinación de Azure, Office 365 y Teams. “A menudo se considera que Microsoft es la apuesta global segura, pero la mayoría de los clientes tienen más de un proveedor de nube”, agregó.

Naturalmente, los tres proveedores son sólidos en aprendizaje automático, ya que pueden aprovechar profundos conocimientos de investigación y desarrollo internos, pero esta es un área en la que Google a menudo se destaca, ya que los clientes buscan aprovechar la magia que impulsó al gigante de las búsquedas a una escala sin precedentes durante las últimas dos décadas.

Google también se destaca a menudo por su profunda experiencia en tecnologías de código abierto, especialmente contenedores, gracias a su papel central en el desarrollo de Kubernetes para la orquestación y la malla de servicios Istio, que se están convirtiendo rápidamente en tecnologías estándar de la industria.

McQuire es optimista en Google Cloud, posicionando al proveedor como “el competidor más feroz del mercado”, bajo el nuevo liderazgo del CEO Thomas Kurian: “Lo que inclina la balanza a su favor es su capacidad de ingeniería y, en particular, la forma en que los clientes obtienen acceso y se involucran Ingenieros de Google, especialmente para el desarrollo conjunto. La empresa también ha adoptado en gran medida el código abierto y su cultura de innovación se presta a clientes que priorizan estas áreas sobre todo en la transformación digital “.

Wang agrega: “Aquellas organizaciones que buscan buenas capacidades de inteligencia artificial y aprendizaje automático, junto con traducción, búsqueda y seguridad, han estado gravitando hacia Google Cloud Platform.

“La llegada de Thomas Kurian ha puesto en marcha una disciplina de hoja de ruta y un producto que se alinea mejor con las necesidades de las empresas. Esto ha abierto oportunidades para una mayor competencia en el duopolio de la nube de Azure y AWS”.

Funciones y servicios

En su núcleo, AWS, Microsoft Azure y Google Cloud Platform ofrecen capacidades básicas muy similares en torno a la computación, el almacenamiento y las redes flexibles. Todos comparten los elementos comunes de una nube pública: autoservicio y aprovisionamiento instantáneo, escalado automático, además de funciones de seguridad, cumplimiento y administración de identidades.

Los tres proveedores han lanzado servicios y herramientas dirigidos a áreas de tecnología de vanguardia como Internet de las cosas (IoT) y computación sin servidor (Lambda para AWS, Funciones con Azure y Google), mientras que los clientes pueden aprovechar la nube para crear una aplicación móvil o incluso crear un entorno informático de alto rendimiento en función de sus necesidades.

El aprendizaje automático también ha sido un área en auge en la gran carrera armamentista de la computación en la nube en los últimos tiempos. 

AWS lanzó SageMaker en 2017 como una forma de simplificar la adopción del aprendizaje automático al reunir un entorno alojado para portátiles Jupyter con gestión de modelos incorporada, puesta en marcha automatizada de entornos de formación utilizando instancias EC2 y puntos finales HTTPS para las capacidades de alojamiento con Amazon S3. . El proveedor también tiene un amplio conjunto de servicios de aprendizaje automático listos para usar para casos de uso como reconocimiento de imágenes (AWS Rekognition), modelos de aprendizaje profundo de texto a voz (Polly) y el motor que impulsa a Alexa (Lex).

Azure Machine Learning de Microsoft permite a los desarrolladores escribir, probar e implementar algoritmos, así como acceder a un mercado para API listas para usar.

Google ofrece una plataforma de inteligencia artificial de ventanilla única , que ayuda a los ingenieros de aprendizaje automático a crear e implementar modelos basados ​​en su popular biblioteca de aprendizaje profundo de código abierto TensorFlow.

También se satisfacen los rumores recientes en torno a los contenedores, ya que los tres proveedores ofrecen servicios administrados en torno a servicios de contenedores populares como Kubernetes.

Finalmente, para los clientes del Reino Unido preocupados por la soberanía de los datos, AWS lanzó su región del Reino Unido en diciembre de 2016, y Microsoft y Google siguieron rápidamente su ejemplo.

Computación, almacenamiento, bases de datos y redes

Para la informática, la oferta principal de AWS son sus instancias EC2, que se pueden personalizar con una gran cantidad de opciones. También proporciona servicios relacionados como Elastic Beanstalk para la implementación de aplicaciones, el servicio EC2 Container, ECS para Kubernetes (EKS), AWS Lambda y Autoscaling.

Mientras tanto, la oferta informática de Azure se centra en sus máquinas virtuales (VM), con otras herramientas como Cloud Services y Resource Manager para ayudar a implementar aplicaciones en la nube, y su servicio Azure Autoscaling.

Compute Engine escalable de Google entrega VM en los centros de datos de Google. Son rápidos de arrancar, vienen con almacenamiento en disco persistente, prometen un rendimiento constante y son altamente personalizables según las necesidades del cliente.

Los tres proveedores admiten bases de datos relacionales, es decir, Azure SQL Database, Amazon Relational Database Service, Redshift y Google Cloud SQL, así como bases de datos NoSQL con Azure DocumentDB, Amazon DynamoDB y Google Bigtable.

El almacenamiento de AWS incluye su Simple Storage (S3), Elastic Block Storage (EBS), Elastic File System (EFS), Importar / Exportar servicio de transferencia de datos de gran volumen, Copia de seguridad de archivos Glacier y Storage Gateway, que se integra con entornos locales.

Las ofertas de Microsoft incluyen su servicio principal de almacenamiento de Azure, almacenamiento de bloques de Azure Blob, así como almacenamiento de tablas, colas y archivos. También ofrece Site Recovery, Import Export y Azure Backup.

Los tres generalmente ofrecen excelentes capacidades de red con equilibrio de carga de servidor automatizado y conectividad a sistemas locales, lo que nos lleva a …

Opciones híbridas

Una tendencia creciente entre los proveedores de nube pública a gran escala en el último año ha sido un enfoque creciente en ayudar a satisfacer las necesidades híbridas y de múltiples nubes de los clientes. 

Esto tiende a aplicarse cuando los clientes se están implementando en la infraestructura de varios proveedores y también necesitan mantener algunas aplicaciones en las instalaciones. Los proveedores han respondido con una gama de soluciones para ayudar a atender a estos clientes que todavía no están listos para lanzarse de lleno a la nube pública, que por supuesto es la mayoría de las grandes empresas.

Microsoft ha sido durante mucho tiempo la opción de referencia para las implementaciones híbridas entre las tres grandes con su bien establecido Azure Stack. Esto proporciona a los clientes el hardware y el software necesarios para implementar los servicios de nube pública de Azure desde un centro de datos local con un portal de administración compartido, código y API para una interoperabilidad simple.

AWS señaló su primer paso serio hacia las implementaciones híbridas en su conferencia re: invent en 2018 con el lanzamiento de Outposts, un servicio completamente administrado donde el proveedor entrega racks preconfigurados en sus instalaciones, donde los servicios de AWS pueden ejecutarse como si estuvieran en su centro de datos.

Luego, Google hizo su propio impulso hacia el híbrido en 2019 con el lanzamiento de Anthos, que es efectivamente un cambio de marca de la plataforma Google Cloud Services y reúne una combinación de Google Kubernetes Engine (GKE) existente, GKE On-Prem y Anthos Config. Consola de administración. Esto promete una administración, políticas y seguridad unificadas en las implementaciones híbridas de Kubernetes.

Hablando sobre Anthos en la conferencia Google Cloud Next en abril de 2019, el nuevo CEO Thomas Kurian dijo: “Muchas grandes empresas realmente quieren capacitar a las personas una vez en un conjunto de tecnología que pueden implementar en cualquier lugar. Ninguno de los otros proveedores de nube está resolviendo eso . Hoy, si habla con Azure, le dirán que puede ejecutar Azure Stack en las instalaciones y en la nube, Amazon le dirá que puede ejecutar Outposts en las instalaciones y en la nube de AWS. Son buenas empresas, pero no lo son resolviendo el problema de múltiples nubes “.

Precios

Los precios pueden ser un gran atractivo para aquellos que están considerando pasarse a la nube, y con razón: ha habido una tendencia a la baja continua en los precios desde hace algún tiempo a medida que los grandes proveedores compiten.

En términos generales, los precios son aproximadamente comparables, especialmente desde que AWS cambió de precio por hora a precio por segundo para sus servicios EC2 y EBS en 2017, poniéndolo en línea con Azure y Google.

Sin embargo, hacer una comparación clara puede ser difícil, ya que los tres ofrecen modelos de precios ligeramente diferentes, descuentos y recortes de precios frecuentes. Por supuesto, no todos los clientes pagarán el precio de etiqueta, especialmente a nivel empresarial, donde los descuentos por volumen se pueden negociar con los representantes de ventas.

AWS proporciona una calculadora de precios aquí , Microsoft aquí y Google aquí .

Todos los proveedores ofrecen niveles introductorios gratuitos, lo que permite a los clientes probar sus servicios antes de comprarlos y, por lo general, ofrecen créditos para atraer nuevas empresas innovadoras a sus plataformas, así como niveles “siempre gratuitos” con límites de uso estrictos.

Clientes

Una base de usuarios de alto perfil puede no ser la razón principal para elegir su proveedor de nube, pero puede ayudar a las organizaciones más cautelosas a comprender cómo la nube pública beneficia a otros en su sector.

Este es claramente un punto fuerte de AWS. Cada vez más, ha adquirido grandes acuerdos con los clientes. Por ejemplo, aunque la Agencia Central de Inteligencia de EE. UU. Finalmente firmó un contrato con IBM, otorgó a AWS un contrato para construir su nube privada en un acuerdo único en 2013, que podría verse como un momento simbólico para los compradores potenciales.

Un cliente de AWS desde hace mucho tiempo es Netflix, que finalmente decidió cerrar todos sus centros de datos en un paso final a la nube en 2016. Pero, aparte de los pioneros de la web, AWS ha tenido un verdadero éxito en convencer a las empresas más tradicionales para que se pasen a la nube.

Shopper Experience: 4 macro tendencias que serán auge en el consumo

Ahora, empresas de todo el mundo buscan nuevas formas de ofrecer experiencias totalmente distintas al cliente. Por ejemplo, con tecnologías disruptivas como asistentes de voz; Big Data, impresión 3D, robots o a través de realidades inmersivas, aumentadas o mixtas, entre otras.

Aunque parezcan conceptos lejanos o futuristas, ya existen grandes mercados que giran en torno a esto. Por ejemplo, el de proteínas vegetales sin soya valorado en 1.5 millones de dólares (mdd); o el de la entrega de comida a domicilio que llegará a los 9,000 mdd en 2025 a nivel mundial.

Además, con el estallido de la pandemia del coronavirus, sectores como el de la robótica han cobrado más importancia, ya que facilitan el distanciamiento social y evitan el contacto humano. Se prevé que en 2025 existan 4 millones de robots trabajando en 50,000 supermercados, según datos de ABI Research.

Sin embargo, al igual que la tecnología evoluciona, también lo hacen las demandas de los clientes. El prototipo de consumidor actual es alguien más consciente de la importancia del bienestar mental —no solo físico—; un cliente que quiere personalización, que se siente cómodo con las entregas a domicilio, pero que busca crear una conexión con la marca.

Actualmente el valor de los desechos de comida que malgastan los países del primer mundo está valorado en 46,700 mdd, según la Organización de las Naciones Unidas para la Alimentación y la Agricultura (FAO). Esto lleva a muchos compradores a tomar conciencia en cuanto a la importancia de la sostenibilidad y seguridad alimentaria.

Juan Luis Moreno, socio y director de innovación de The Valley, explicó en el Informe de tendencias Food & Restaurants: el viaje del producto, que estos factores tecnológicos entran en juego para definir cuatro macrotendencias que ya están transformando al sector de la alimentación.

1. I+D+I aplicado al diseño y a la producción de alimentos

Saber de dónde viene la comida es una cuestión que cada vez preocupa más a los consumidores. Tras el pasado brote de listeriosis que tuvo lugar hace unos años en España; y el interés por consumir productos frescos y de calidad, ha generado que el sector alimenticio se sumerja en el mundo del blockchain.

El blockchain permite conocer la trazabilidad de los productos, ya que la información queda registrada en millones de servidores.

Por su parte, Walmart e IBM ya están utilizando esta tecnología blockchain para detectar fallos en su cadena de suministros; lo que ayudaría a prevenir intoxicaciones y localizar dónde ocurrió el problema.

IMB Food Trust también se ha aliado con la cadena de supermercados Carrefour, la primera empresa de distribución en España en implantar esta tecnología. La idea es que los consumidores puedan conocer toda la información de un producto en cuanto a trazabilidad con un lector de códigos QR y una aplicación; de modo que el usuario pueda comprar de forma segura.

En esa línea, muchas empresas ya están buscando formas de innovar y apostar por comida y bebida creada en laboratorios, como es el caso del fabricante de Budweiser y Beck’s que esta desarrollando una cerveza de flor de sauco.

Carne de laboratorio como una de las macrotendencias en alimentación

También está evolucionando una tendencia que se espera que triunfe en 2021, la carne in vitro; es decir, la creación de alimentos con sabor a carne a partir de células animales tratadas en food labs.

Ethica Meat —la competencia vasca de Bill Gates— propone una solución para los veganos gracias a esta nueva forma de consumir carne; ya que evita que estas personas tenga déficits de determinadas proteínas sin la necesidad de sacrificar animales.

También existen los alimentos con sabor animal, pero creados a partir de proteínas vegetales, como la nueva hamburguesa de Burger King gracias a su colaboración con Beyond Meat; o nuevas iniciativas como Fazenda Futuro, una foodtech brasileña valorada en 100 mdd, que hace hamburguesas a partir de soya o legumbres con sabor carne intacto.

Sin embargo, los expertos alertan que ahora mismo es un procedimiento muy caro. Pero se estima que pronto la carne cultivada de alta tecnología sea 60% más barata que la wagyu, la más preciada del mercado.

«El proceso es muy caro en este momento; probablemente nuestro pollo de laboratorio cueste unos 100 dólares por nugget», cuenta Josh Tetrick, CEO de Just, empresa conocida por sus opciones de mayonesa y huevos veganos.

Uno de los mayores referentes a nivel internacional es el LABe, el Basque Culinary Center, que se ha convertido en un centro de innovación gracias a la creación de un laboratorio de gastronomía digital con una sala experimental 360 grados. Es cuestión de tiempo que se creen más laboratorios similares en todo el mundo.

2. ‘On demand’: nuevos productos y servicios basados en la conectividad

Poder ofrecer productos y servicios de una manera rápida y sencilla para el cliente se ha convertido en una de las macro tendencias del sector alimentación en 2020. Pues no siempre se puede ofrecer la experiencia completa de acudir al local.

Muchos restaurantes han optado por crear dark kitchens. Es decir, cocinas dedicadas a las entregas a domicilio —otra de las macrotendencias en alimentación— para centralizar el reparto y ofrecer un mejor servicio.

Taster es una de las primeras dark kitchens creada en 2017 por uno de los primeros empleados de Deliveroo. Combina la automatización de la cadena de suministros y facturación con solución para el despliegue de servicios de entrega.

Otra inclinación en auge son los modelos de suscripción con una tarifa plana muy llamativa. Un ejemplo de esto es Starbucks, que ha desarrollado un acuerdo con Uber Eats para contar con entregas de cafés a domicilio.

Pero sin duda, un punto clave de la comida a domicilio es la inteligencia artificial (IA), ya que facilita todo el proceso gracias a su tecnología.

Google ya está integrando nuevos servicios de entregas a través de su buscador, el servicio de mapas y su asistente de voz. Y Burger King se ha aliado con Alexa para que puedas pedir sus hamburguesas a través del dispositivo.

Otra vertiente es la IA instaurada en coches; es decir, la capacidad de pedir comida a través del automóvil, sin necesidad de aplicaciones ni un smartphone. Eso lo que ofrece Chevy, una marca de vehículos que ha añadido Domino’s Pizza a su MarketPlace.

Asimismo, Fiat Chrysler Automobiles (FCA) lanzó un ecommerce in-vehicle para pedir y pagar combustibles o alimentos y hacer reservas desde el coche.

También están empezando a aflorar propuestas como la de Walmart, que se asoció con la compañía de vehículos autónomos Gatik para repartir a domicilio sin necesidad de personal.

3. Nuevos modelos a nivel de retail y gestión donde prima la experiencia

El rápido avance de la tecnología genera especial interés por los robots para que estos faciliten las tareas de los humanos, otra de las macrotendencias en alimentación. Por eso, empresas como Amazon ya están impulsando programas como Career Choice Program, para que sus trabajadores aprendan robótica.

Por otro lado, Walmart introduce robots en 5,000 de sus 11,348 supermercados. Ahí, ejercen una labor de reposición, alerta, y tareas propias de los dependientes; lo que genera una polémica en torno a la eliminación de sus puestos de trabajo.

A pesar de que con el coronavirus comprar en físico se volvió una tarea complicada, Juan Luis Moreno de The Valley explica que el consumidor sigue valorando la experiencia física; por lo que muchos restaurantes y empresas están buscando estrategias para potenciar esto.

Un ejemplo de esto es el restaurante inmersivo The Place Inmersive. Este proporciona una experiencia con video 360º y tecnología que te permite disfrutar de los sentidos mientras comes.

En el caso de los supermercados, Moreno vaticina un futuro marcado por un modelo híbrido, donde convivan 3 dimensiones: la física, la online y la combinada; como ya está haciendo Hema, lo nuevo del gigante Alibaba.

4. Formatos de negocio innovadores basados en la economía circular

Las empresas están buscando contribuir a una economía sostenible; tanto por voluntad propia como por la demanda de sus clientes.

Existen muchas formas de cuidar del medio ambiente; por ejemplo, aprovechando restos de comida para cocinar nuevos platillos. Así lo hace la startup social fundada en Copenhague Rub&Stub. Un trabajo que consiguen hacer realidad gracias a la ayuda de 100 voluntarios.

Otra estrategia es la reducción de plástico de los productos, algo que tuvo mucho auge a principios de 2020; pero que con la pandemia se ha visto en retroceso. En cualquier caso, empresas como Ekoplaza Lab buscan combatir esto gracias a sus envases biodegradables a partir de celulosa vegetal. Parece plástico a simple vista, pero no lo es.

Alternativas como el upcycling o suprarreciclaje; es decir, la reutilización creativa son propuestas interesantes para cuidar del planeta. Treasure8 es una empresa de upcycling de galletas que gracias a la tecnología aprovecha ingredientes que son aptos para el consumo, pero que son considerados desechos. Así crea nuevos alimentos.

Finalmente, como no podía faltar, la impresión 3D. También supondría una opción eco-friendly, ya que permite crear alimentos a partir de ingredientes veganos. Tal es el caso de la compañía NovaMeat, que ha creado un bistec libre de carne hecho con una pasta de ingredientes veganos que incluyen arroz, guisantes y algas marinas.

En un futuro no tan lejano se podrán ver varias de estas tecnologías disruptivas conviviendo en un mismo espacio, complementándose unas con otras.

Pero en cualquier caso, habrá que esperar para ver qué macro tendencias triunfan realmente en el sector de la alimentación; en un mundo donde la tecnología evoluciona por segundos.

 

No es ciencia ficción: la inteligencia artificial del futuro podría tener neuronas

La Universidad de Barcelona participa en el proyecto Neu-ChiP que quiere comprobar si es posible introducir una ‘parte humana’ en las computadoras.

El nombre del proyecto lo dice todo: Neu-Chip es decir, neuronas en un chip. El objetivo no es otro que mejorar el desarrollo de la inteligencia artificial contando con las ventajas de adaptabilidad y eficiencia energética del propio cerebro humano. ¿Cómo? Uniendo un circuito neuronal, desarrollado en laboratorio, a un circuito electrónico.

Neurons in the brain

Toda una revolución que puede ampliar los límites de la inteligencia artificial. Suena extraordinario y lo es. El debate ético está servido.

Neuronas para mejorar la inteligencia artificial. Esa es la idea, ese es el objetivo. De momento se trata tan sólo de un estudio. Pero tan ambicioso que puede “romper las limitaciones actuales de la potencia de procesamiento y el consumo de energía para lograr un cambio de paradigma en la tecnología de aprendizaje automático“, señalan desde la Universidad de Aston, en Birmingham que coordina la investigación.

Un trabajo que une a físicos, biólogos e ingenieros de 5 países. Se trata de una investigación financiada con 3,5 millones de euros por la Comisión Europea, en el que un consorcio formados por 3 Universidades, dos institutos tecnológicos y una empresa suiza quieren comprobar “si se puede hacer inteligencia artificial en un circuito biológico” diseñado a partir de células madre. 

“Es un proyecto muy ambicioso”, comenta a D+I Jordi Soriano, investigador del Instituto de Sistemas Complejos de la Universidad de Barcelona (UBICS). “Se trata de un Proof of Concept, una prueba de concepto, un estudio sobre la viabilidad de una determinada idea”.

La UE -explica- “nos da dinero para que intentemos algo muy loco, a ver si lo podemos conseguir. Si funciona, la idea es que se pueda conectar el circuito neurológico que desarrollemos en laboratorio a partir de células madre, con uno electrónico para que se ayuden mutuamente“.

“Los ordenadores, los móviles, funcionan con circuitos eléctricos que sólo son capaces de hacer aquellas tareas para las que han sido preparados, que sólo responden a unas órdenes prefijadas”, nos cuenta Daniel Tornero, investigador del Instituto de Neurociencias y del Centro de Terapias Avanzadas Creatio de la Universidad de Barcelona.

“La idea es incorporar las capacidades del cerebro humano a los circuitos electrónicos. Esto le puede permitir adaptarse a distintas situaciones, básicamente aprender de los errores o de la experiencia”, recalca.

Replicar una parte del cerebro a partir de células madre

La primera fase del proyecto pasa por desarrollar en el laboratorio un circuito neuronal. “No es otra cosa que intentar crear una porción de cerebro en el laboratorio, in vitro“, explica a D+I Daniel Tornero.

Es como hacer un cerebro muy simple. El concepto Brain on chip está ahora muy de moda. En la facultad de medicina de la UB tenemos proyectos que intentan reproducir una conexión neuronal que existe en el cerebro entre dos zonas concretas porque esa conexión está afectada por una enfermedad. Para revertir esa enfermedad intentamos reproducir esa conexión entre las diferentes neuronas para aprender sobre la enfermedad y poder ponerle solución”.

Desde el punto de vista físico, el cerebro como tal, como circuito que procesa información, es especialmente interesante porque es muy robusto“, comenta Jordi Soriano. “Puedes modificar el entorno sin que le afecte porque el sistema funciona muy bien. Los circuitos electrónicos no son tan robustos porque son excesivamente rígidos, no tienen la capacidad de adaptabilidad del cerebro”.

“Un circuito neuronal siempre está activo, siempre procesa información, siempre intercambia información. Lo puedes ‘apagar’ pero sigue haciendo cosas. Eso no lo puede hacer un circuito electrónico”, admite.

“El neuronal tiene cosas únicas que lo hacen superior, que lo convierten en algo fascinante”, insiste Soriano.

“Si un circuito eléctrico se estropea no es capaz de encontrar el error y repararse por sí mismo. Sin embargo, una neurona es un ‘aparato’ que funciona a la perfección, que utiliza muy poca energía y que es capaz de auto repararse. Son capacidades que un ordenador nunca tendrá”, remarca Daniel Tornero.

“Jordi y yo hemos demostrado en proyectos previos que, si dañamos un circuito hecho con neuronas, él mismo, al cabo de 15 o 20 minutos, es capaz de seguir funcionando aunque hayamos destruido una parte”.

Mayor eficiencia y ahorro energético

La conocida como “computación neuromórfica” es la ciencia que pretende imitar electrónicamente la actividad neuronal humana, es decir, emular el comportamiento del propio cerebro humano. Hasta ahora el gran hándicap ha sido que estos sistemas requieren una potencia de cálculo cada vez mayor y por tanto una gran demanda de energía.

Pero con el desarrollo de un circuito neuronal el problema se termina. Las neuronas apenas necesitan una pequeña cantidad de medio de cultivo para vivir y trabajar. “La mayor de las ventajas es la eficiencia que consiguen con un mínimo de nutrientes”, explica el neurobiólogo.

“Nosotros tenemos cultivos neuronales con los que trabajamos a diario y les cambiamos el medio de cultivo una vez a la semana. Trabajan toda la semana sólo con 1 ml de medio“.

Apenas necesita ‘alimentación’ y tampoco mucho espacio “Pensemos que un cultivo neuronal ocupa aproximadamente el mismo espacio que una moneda de 10 céntimos“, añade el físico.

“En el mismo espacio que ocupa un rotulador puede tener el circuito, el medio que lo alimenta y la electrónica que lo cuida. Tienes un sistema que funciona, que está vivo, que te lo puedes llevar arriba y abajo. En muy poco espacio, con poquísima energía, un cultivo puede vivir meses“.

No hablamos de ciencia ficción. Hablamos de ciencia aplicada.  “Las células madre que vamos a emplear son generadas a partir de células de la piel de un donante humano“, explica Tornero.

“Esta tecnología, que se llama reprogramación celular -producir una célula madre a partir de una célula adulta-, apenas tiene 15 años. En 2006 se publicaron los primeros trabajos de reprogramación que resultaron en el premio Nobel de Medicina para Shinya Yamanaka en 2012. Ahora estamos explotando esta técnica que está revolucionando la biología celular”.

Sobre ese circuito biológico enviarán impulsos eléctricos para observar sus respuestas. Es la manera de ‘entrena’ el circuito. “Tienes que conectar las células de manera estratégica para que el circuito sea capaz de procesar la información. La ventaja es que puedes entrenarlo”, dice Soriano.

“O bien a través de estímulos o poniendo ‘barreras físicas’ podemos intentar dirigir la información que trasmitimos en la dirección que queremos para que el circuito procese la información y aprenda, por ejemplo, a hacer cálculos complejos”, añade Daniel Tornero.

Integrar circuitos biológicos y electrónicos

El siguiente paso será unir el circuito neuronal con un circuito electrónico. “No queremos desplazar la IA electrónica, pero si hacer una mezcla. La idea es conseguir las ventajas de la computación de un cerebro humano en un chip tanto para que consuma muy poco (mil veces menos que un ordenador), como para que haga la computación más natural“, nos cuenta Jordi Soriano.

El objetivo es mostrar cómo las neuronas, los procesadores de información del cerebro, pueden aprovecharse para mejorar la capacidad de los ordenadores para aprender al tiempo que se reduce el uso de energía. “Si llega a funcionar bien tendrá un sinfín de aplicaciones. Por ejemplo, serviría para conectar las retinas artificiales, que son un microchip, con el cerebro. Si pudieras conectar el circuito electrónico (que es la retina artificial) con un circuito biológico inteligente podrías convertir señales electrónicas en señales cerebrales”.

Para llegar a esa conexión entre el circuito neurológico y el electrónico pasará mucho tiempo. Pero mientras tanto, la neurobiología puede aprender mucho sobre nuevos tratamientos ante enfermedades neurodegenerativas como el Alzheimer o el Parkinson.

“De este proyecto podemos aprender mucho sobre cómo actúa el cerebro humano. Por ejemplo, en las terapias de Deep Brain Stimulation, en las que se aplican corrientes a través de un electrodo en una determinada zona del cerebro para reparar un daño del cerebro. Con este proyecto podemos observar cómo responden esos circuitos neuronales ante determinados estímulos para saber cómo lo haría el cerebro humano”, añade Daniel Tornero.

El proyecto Neu-Chip está liderado por Investigadores de la Universidad de Aston, en Birmingham (Reino Unido) y en él participan investigadores de la Universidad de Loughborough (Reino Unido), la Universidad de Barcelona, el Centre National de la Recherche Scientifique  (Francia), el Instituto Tecnológico Technion (Israel) y la empresa 3Brain AG (Suiza). En estos momentos los equipos trabajan en la planificación y captación de personal. Está previsto que se inicie en junio y que tenga una duración de 3 años. “La CE tiene mucho interés en desarrollar tecnología europea propia, nueva”, comentan. “Nosotros iniciamos un camino con la prueba de concepto. Si sale bien habrá spin-off que lo desarrollará”.

La frontera entre lo humano y la maquina se diluye

La filosofía (y la práctica) de este proyecto parece que nos lleva justo a la frontera de los que es propiamente humano, a su misma esencia. A concederle rasgos, características propias del ser humano a una computadora. Porque, como nos cuentan los investigadores, al hablar de computación biológica las respuestas que encontraremos no serán solo ‘sí’ o ‘no’ como tienen los ordenadores convencionales. “De esta forma existe la opción ‘de momento sí’ o ‘es correcto en un 90% de los casos’, es menos rígida, más flexible, más natural”.

“El objetivo final del proyecto es conseguir que la inteligencia artificial pueda ser más flexible, para conseguir una computación mucho más natural, más humana. Combinar lo mejor de los dos mundos, del biológico y del electrónico”. Mejorar la inteligencia de una máquina con la ayuda de ese nuevo cerebro que es el circuito neurológico.

“Sin duda suscitará polémica, lo sabemos. Despertará un debate ético/religioso“, comenta Jordi Soriano. “Pero siempre en nuestro trabajo tenemos un control ético muy importante sobre el empleo de células humanas, sobre la manipulación de estas células. Con nuestra investigación tan sólo pretendemos aprender del comportamiento del cerebro para beneficiar al ser humano. Pero como ocurrió con Nobel y la TNT todo avance puede utilizarse para el bien o para el mal”, concluye Tornero.

“Si el proyecto triunfa y avanzamos en la integración de la computación biológica con la electrónica, entonces habrá que legislar sobre esta materia para poner los límites. 

 

Viviendas cooperativas: ¿Una forma de vida más verde y sostenible?

  • La vida en comunidad es una forma asequible para que las personas vivan, de manera que se ajusten a sus valores compartidos.
  • Estas comunidades suelen tener conciencia del clima y se esfuerzan por ser lo más sostenibles posible.

Frankie vive en una casa de seis habitaciones en las afueras de Leeds. Ella es su propio propietario, pero no es dueña de la casa. En su lugar, forma parte de un grupo de vivienda cooperativa: juntos, han podido comprar la casa y luego alquilarla a un precio asequible para ellos mismos como inquilinos.

A pocos kilómetros de distancia, otro grupo ha conseguido financiación para diseñar y construir una eco-comunidad de hasta 30 hogares, incluyendo lo que se conoce como una casa común: una casa compartida con cocina, lavandería, talleres, un espacio de reunión, habitaciones de huéspedes y jardines.

Mucho más lejos, en el noreste de Alemania, hay un sitio de 37 acres donde un grupo de personas viven y trabajan juntas compartiendo alimentos, cuidado de los niños y recursos. Han creado una comunidad en la que las relaciones y el medio ambiente tienen prioridad.

Los tres son ejemplos de comunidades intencionales: grupos de personas que han elegido vivir juntos de una manera que refleja sus valores compartidos. Estas comunidades se presentan en una variedad de formas, desde viviendas ocupadas y cooperativas de viviendas hasta comunas y comunidades de co-vivienda.

Las comunidades intencionales no son de ninguna manera una idea nueva, pero a menudo han sido citadas como los espacios experimentales o bancos de pruebas para el futuro. A veces se consideran experimentos utópicos en los que los grupos y las personas se esfuerzan por crear una vida mejor.

Mucha gente busca antídotos para el consumo cada vez mayor y los sentimientos de aislamiento social. No hay una solución única, y tendremos que mirar todos los aspectos de nuestras vidas, desde la forma en que consumimos hasta las prácticas diarias. Pero para algunos, la solución se encuentra en la vida comunitaria y en las comunidades intencionales. Puede ser que algunas de las ideas que se están probando en estas comunidades puedan crear los planos de los pueblos y ciudades del mañana.

Estilos de vida alternativos

Hay algunas pruebas de que las comunidades intencionales se forman como respuesta a las preocupaciones de la sociedad en un momento dado.

En la década de 1970, se formaron muchas comunidades nuevas como reacción a la urbanización e industrialización masiva. Estos grupos compraron propiedades rurales, a menudo con tierras, e intentaron un estilo de vida “de vuelta a la tierra” informado por ideas de autosuficiencia.

Muchas de estas comunidades fracasaron, pero algunas siguen funcionando con éxito hoy en día, a menudo en su forma original. Por ejemplo, el Canon Frome Court administra colectivamente una granja orgánica de 40 acres en Herefordshire. Juntos, la comunidad cultiva gran parte de sus propios alimentos y cría vacas, ovejas y pollos.

Es difícil estimar el número de comunidades intencionales en todo el mundo, pero ciertamente son miles. Sólo en el Reino Unido hay alrededor de 300 en la lista (y muchas más que no lo son), con nuevas comunidades que surgen cada año.

Si utilizáramos las comunidades intencionales como indicador del descontento social, entonces las múltiples presiones de la vivienda, la falta de comunidad, el envejecimiento de la sociedad y, por supuesto, el cambio climático serían fundamentales para este sentimiento. Miren un poco más profundo, y estos problemas son en realidad parte de un grupo mucho más amplio de preocupaciones sociales en torno al consumo, la desigualdad mundial y los límites planetarios.

En la sociedad convencional, las soluciones a estas ideas entrelazadas se presentan como medidas de arriba abajo tomadas a través de la política, la legislación y los acuerdos globales, pero también como elecciones personales hechas por individuos y grupos: conducir y volar menos, consumir más éticamente, llevar una dieta más basada en plantas, cambiar la forma en que trabajamos y vivimos.

Aquellos dentro de las comunidades intencionales dirían que han estado por delante de la curva en esto durante muchos años, con ideas como el vegetarianismo y la autosuficiencia que a menudo son centrales en su forma de vida. A menudo ocupan el necesario punto medio entre la política gubernamental y la acción individual. La documentalista Helen Iles llamó a su serie de películas sobre comunidades intencionales “Vivir en el futuro”.

Vivir en el futuro

Entonces, ¿qué podemos decir sobre las posibles direcciones de la sociedad en general de las comunidades intencionales de hoy en día?

Algunas comunidades rurales han adoptado un desarrollo de bajo impacto. Por ejemplo, Rhiw Las, una eco-comunidad rural en el oeste de Gales, ha creado un asentamiento sostenible basado en estrictas directrices ecológicas.

Mientras tanto, las comunidades urbanas, como la Cooperativa de Viviendas Bunker en Brighton, buscan crear viviendas asequibles de alta calidad para la población local. Estas cooperativas se basan en el principio de control y gestión colectiva de la propiedad.

Permiten a grupos de personas que podrían no tener acceso a una vivienda segura formar una entidad legal, lo que les permite comprar y poseer propiedades colectivamente. También tienen la capacidad de constituir o apoyar empresas cooperativas, como las cooperativas de alimentos o de imprenta.

Unilever busca que todos los trabajadores de nuestra cadena de suministros ganen un salario digno

  • La desigualdad mundial está destruyendo la confianza en las instituciones, fracturando la sociedad y frenando el progreso económico.
  • Las empresas son un motor de prosperidad que puede mejorar la vida de miles de millones de personas en todo el mundo.
  • Unilever ha anunciado su compromiso de garantizar que todas las personas que suministran directamente bienes y servicios a la empresa ganen al menos un salario o un ingreso digno para 2030.

El capitalismo está cambiando, evolucionando para que nuestros sistemas basados en el mercado se basen en sus fortalezas históricas para incentivar resultados que sean mejores para las personas, el planeta y nuestra economía. Pero el ritmo actual de cambio no es lo suficientemente rápido. Los dos mayores retos colectivos a los que nos enfrentamos -la desigualdad social y el cambio climático- siguen empeorando, no mejorando.

En 2020 se produjo un gran aumento de las empresas que asumieron compromisos de emisiones netas de carbono, y aún queda mucho por hacer en ese frente. En 2021 veremos cambios en los compromisos de las empresas para abordar además la desigualdad social. La pandemia del COVID-19 ha puesto de manifiesto la profundidad de este problema, ampliando la brecha para muchos. Es hora de actuar.

La desigualdad no es un juego de ganadores y perdedores; todos estamos perdiendo. La desigualdad destruye la confianza en las instituciones, incluidas las empresas, fractura la sociedad y frena el progreso económico.

Estoy convencido de que las empresas pueden ayudar a atajar la arraigada desigualdad social. Las empresas son el motor de la prosperidad que puede mejorar la vida de miles de millones de personas en todo el mundo. Pero para ello, las empresas tienen que actuar de forma que esa prosperidad se reparta de forma más equitativa. En pocas palabras, hay demasiadas personas que no cobran lo suficiente. Reciben una parte injusta del valor que crean, y eso debe cambiar.

Compartir el valor de forma justa

El 21 de enero, Unilever anunció un amplio conjunto de nuevos compromisos para hacer frente a la desigualdad social, elementos clave de nuestro modelo de negocio multipartito. Entre ellos se incluye el compromiso de garantizar que todas las personas que proporcionan directamente bienes y servicios a Unilever ganen al menos un salario o un ingreso digno para 2030.

Destaco este compromiso específico porque sabemos que su consecución requerirá la acción colectiva de las empresas, los gobiernos, la sociedad civil, los sindicatos y el mundo académico. Tendremos que impulsar este cambio sistémico a una escala nunca vista.

Aumentar los ingresos de las personas peor pagadas del mundo puede generar enormes beneficios en términos de salud, educación, igualdad de género y calidad de vida. Los empresarios verán una mayor productividad y compromiso, una menor rotación de personal y una base de consumidores más próspera. Todo ello redundará en beneficio de los resultados económicos locales, nacionales y mundiales.

Acción colectiva para un bien colectivo

En los últimos cinco años hemos trabajado duro para mejorar los medios de vida de millones de personas en nuestra cadena de valor a través de programas de ayuda a los pequeños minoristas y a los pequeños agricultores.

Aunque hemos mejorado las vidas y los medios de subsistencia de millones de personas, no hemos cambiado el juego ni hemos creado el cambio sistémico más amplio al que aspirábamos. Nuestra ambición final es que todos los integrantes de nuestra cadena de valor ganen un salario o ingreso digno, al igual que nuestros propios empleados.

Sin embargo, para llegar a esta nueva normalidad, necesitamos un cambio transformacional, uniendo las fuerzas de todos los sectores para conseguirlo. Un primer paso será crear metodologías de salario digno fiables, escalables, transparentes y comparables, así como una mejor visibilidad de los datos sobre el salario digno para elevar el nivel mínimo en todos los sectores y países.

El cumplimiento de este compromiso no va a ser fácil; no tenemos todas las respuestas y, sinceramente, la magnitud del reto me pone nervioso. Sin embargo, estoy convencido de que es lo correcto, tanto moral como económicamente, y me consuela el hecho de que tenemos amigos en Patagonia, L’Oreal, Nestlé y otros que ya han iniciado este camino.

A medida que el capitalismo evolucione, una distribución más equitativa del valor se convertirá en una característica central y los salarios dignos como umbral mínimo se convertirán en la norma. Sin embargo, las normas no surgen sin más, sino que se crean, y creemos que las empresas líderes que impulsen esta agenda serán las empresas de éxito del futuro.

Tomado de https://es.weforum.org/

Es hora de acabar con el Turismo extractivo

La industria del turismo y los gobiernos que dan la bienvenida a los ingresos extranjeros prosperan con el argumento de que los medios de vida locales dependen del turismo e insinúan que millones de personas se verán reducidas a la pobreza extrema sin él. 

Pero un examen más detenido de cómo funcionan los clústeres de turismo a gran escala revela quiénes son los verdaderos ganadores y perdedores del turismo de masas.

Como una fiebre del oro hacia el último descubrimiento de minerales sin explotar, una panoplia de cadenas hoteleras, operadores turísticos extranjeros, agencias de reservas en línea, aerolíneas, especuladores inmobiliarios y empresas de construcción multinacionales se apresuran a capitalizar cualquier curiosidad que un visitante pueda tener hacia cualquier sitio. de valor histórico o natural.

Abundan los ejemplos de sitios de atracción que se convierten en pozos mineros para una industria de turismo extractivo. Los centros históricos de ciudades como Ámsterdam, Marrakech, Barcelona, ​​Cracovia, Yogyakarta, Cusco y Kioto se han convertido en gigantes museos al aire libre, abrumados por multitudes de turistas que acuden a tiendas de souvenirs kitsch, hoteles baratos y restaurantes de comida rápida. Muchos antiguos residentes de estas ciudades se han visto obligados a abandonar sus hogares y comunidades urbanas debido al aumento del valor de las propiedades y la gentrificación inducida por el turismo. Los que se quedan sufren la enorme presión que las multitudes de turistas ejercen sobre la infraestructura local.

En otros lugares, los paisajes raros y hermosos del patrimonio natural o cultural como las playas de Tailandia, los puntos calientes de vida silvestre como el Maasai Mara en Kenia o el sitio histórico de Machu Picchu en Perú están despoblados, cercados mediante leyes de preservación y repoblados con una arquitectura globalizada. de agencias de viajes, compañías aéreas y cadenas de suministro controladas por agronegocios y sus subsidiarias locales requeridas para canalizar a las personas a los sitios valiosos de la manera más rápida y cómoda posible.

Los funcionarios del gobierno acceden a los mega-proyectos de turismo debido a los grandes sobornos y aprueban regulaciones para facilitarlos bajo las promesas de crecimiento económico. Estas acciones con demasiada frecuencia reemplazan la soberanía de las comunidades en términos de sus tradiciones y relaciones históricas con sitios de importancia histórica o natural. Como resultado, la población local a menudo pierde el control de su tierra y el desarrollo de la comunidad y ven pocos beneficios del empleo en trabajos de explotación mal remunerados con largas horas de trabajo y prestaciones sociales mínimas o nulas.

En cambio, la mayor parte de la riqueza extraída del “sitio de la mina” turística fluye hacia conglomerados multinacionales que poseen agencias de viajes, hoteles, aerolíneas, cruceros e incluso tiendas minoristas comerciales locales y cuyos tentáculos se extienden a los principales puntos turísticos de todo el mundo.

Cuanta más riqueza y poder acumulan las grandes multinacionales, menos responsabilidad enfrentan no solo por la explotación laboral, sino también por el daño ambiental masivo que causan en forma de una alta huella de carbono, contaminación y uso excesivo del agua, deforestación y destrucción costera. El turismo representa el ocho por ciento de las emisiones globales de gases de efecto invernadero o alrededor de 4,5 gigatoneladas de dióxido de carbono.

La pandemia ya ha desencadenado una amplia conversación pública sobre Green New Deals, desinversión de combustibles fósiles y solo transiciones ecológicas. Ofrece una rara y profunda oportunidad para repensar sectores enteros de la economía.

El turismo de China se dispara por el Festival de Primavera, ya que los turistas abrazan los viajes de corta distancia

El mercado turístico de China continúa recuperándose durante las vacaciones de una semana del Año Nuevo Lunar chino, con famosas ciudades y provincias turísticas que reciben a millones de visitantes mientras la gente se desplaza hacia los lugares escénicos locales, mientras que muchos optan por permanecer en el lugar durante el largo descanso para evitar un brote repentino. -up de COVID-19.

Un total de 654 lugares escénicos importantes estaban abiertos durante los primeros tres días de las vacaciones hasta el sábado, lo que representa el 86 por ciento de los sitios principales, mostraron los últimos datos del Departamento de Cultura y Turismo de la provincia de Sichuan el domingo.

Durante el período reportado, la provincia de Sichuan, suroeste de China, recibió a 6,34 millones de turistas, un aumento interanual del 293 por ciento. Mientras tanto, la provincia registró ingresos por boletos de 40,83 millones de yuanes ($ 6,32 millones), un aumento del 166 por ciento interanual, según la oficina.

Beijing, la capital de China, registró un total de 2,75 millones de turistas durante los primeros tres días de las vacaciones, un aumento de 1,2 veces interanual, mientras que los ingresos aumentaron 1,8 veces interanual a 220 millones de yuanes. 

En Shanghai, 130 lugares escénicos importantes, 81 museos y casi 30 galerías de arte, entre otros, permanecieron abiertos durante las vacaciones, recibiendo a 2,27 millones de visitantes.

El hacinamiento obligó al lugar escénico de Jiufengshan en Ningbo, provincia de Zhejiang, en el este de China, a suspender temporalmente la entrada. Emitió un aviso a las 2:30 pm del sábado que la capacidad temporal de la ubicación alcanzó un pico de 11,000, lo que provocó que se pidiera a los visitantes que esperaran regresar más tarde, indicando que la capacidad se había limitado al 75 por ciento de la capacidad sobre la base de la prevención de COVID-19.

Un residente de Beijing de apellido Zhao le dijo al Global Times que regresó después de llegar a Hongluosi, un lugar pintoresco a una hora y media en auto del distrito financiero de Beijing, el sábado porque había demasiados visitantes y no podía encontrar un lugar para estacionar. 

En la provincia de Guangdong, en el sur de China, otra gran provincia turística, 150 lugares escénicos importantes recibieron a más de 4,33 millones de visitantes a las 2 pm del sábado, según mostraron datos del Departamento de Cultura y Turismo de la provincia de Guangdong.

Un repunte en el mercado turístico local también ha impulsado el consumo interno. Zhuhai, Guangdong emitió un cupón de 200 yuanes cada uno para aquellos cuyo hukou (registro familiar) no se encuentra en la ciudad, mientras que Zhongshan en Guangdong emitió 20.000 entradas para lugares escénicos y 10.000 entradas para el cine, por un valor total de 2 millones de yuanes para estas personas.

Además, los viajes a pueblos y suburbios han batido récords históricos, según la oficina de turismo de Guangdong. Dijo que los lugares escénicos de la aldea recibieron entre 947,300 y 1,08 millones de turistas durante los primeros dos días de las vacaciones, más que durante el mismo período dos años antes.

5 consejos esenciales de diseño de UX

Obtenga los mejores consejos de UX para ayudarlo a diseñar productos con experiencias de usuario intuitivas y efectivas.

La experiencia del usuario es el quid del diseño de un producto, ya sea un sitio web, una aplicación móvil o cualquier otra cosa. Si bien debería ser obvio que la UX es esencial para el diseño de productos, algunos diseñadores de UX todavía tienen muchos conceptos erróneos al respecto.

Pero el hecho es que si su diseño de UX hace clic con su público objetivo, su producto prospera y crece. Si no, mejor suerte la próxima vez.

5 consejos para un diseño UX efectivo

Esta guía cubre los fundamentos para lograr que el proceso de diseño de UX sea ​​correcto en un nivel conceptual. Estos consejos te ayudarán a descubrir cómo convertirte en un mejor diseñador de UX.

1. No reinventes la rueda

El diseño de UX tiene que ver con el compromiso. Como tal, el compromiso es uno de los elementos más importantes en el desarrollo de aplicaciones . Pero los diseñadores de UX a menudo son víctimas de la mentalidad de reinventar la rueda o tratar de arreglar lo que no está roto. 

Hay una razón por la que la mayoría de los sitios web y las aplicaciones móviles están estructurados de la forma en que están: funciona. ¿Por qué? Porque los usuarios están acostumbrados. Esa es la psicología del hábito perpetuado. A los usuarios no siempre les gustan los cambios. Están acostumbrados al modo de presentación convencional y no les gusta mucho adaptarse a algo diferente.

Por lo general, este deseo de reinventar la rueda se manifiesta en diseños innecesariamente poco ortodoxos, combinaciones de colores extrañas, fuentes desagradables en los lugares equivocados y patrones de navegación confusos.

La intención es diferenciar un producto del resto. Sin embargo, este enfoque perjudica el compromiso y, en lugar de diferenciar, ahuyenta a aquellos a quienes deseaba atraer e involucrar.

Es por eso que es mejor utilizar diseños probados y comprobados en todo un producto con pequeños ajustes para adaptarse a sus objetivos particulares (como anuncios de llamado a la acción o avances en los que “también podría estar interesado”).

Este enfoque hace que los usuarios se familiaricen instantáneamente con su plataforma y les permite usarla sin molestarse con diseños desconocidos.

Por ejemplo, no hay razón para reubicar una barra de navegación desde la parte superior de la página hacia la parte inferior o cambiar la forma en que los usuarios proceden en una aplicación móvil. Cumplir con patrones probados y comprobados le ahorra energía en aquellos casos en los que la innovación en el diseño realmente importa, como las páginas de destino y las secuencias de incorporación.

2. Mantenlo simple y practica el diseño receptivo

El otro gran problema que ocurre a menudo en el proceso de diseño de UX es cuando las cosas son demasiado complicadas para su propio bien. Los patrones familiares están ahí (a diferencia de cuando los diseñadores intentan reinventar la rueda), pero estos patrones son demasiado y, por eso, el diseño no funciona.

“Demasiado” es una desconexión instantánea de la experiencia del usuario.

Cuando el usuario llega a una página que está literalmente repleta de elementos y tipografía que distrae, el resultado final es que el usuario rebota en otra parte, que es lo opuesto a lo que usted desea.

Por eso, es mejor mantener las cosas fáciles de usar. Su objetivo es mantener el enfoque del usuario en obtener lo que necesita en su sitio web. No los distraigas de su objetivo y lograrás el tuyo.

Así es como se ve cuando un diseñador de UX mantiene el diseño simple en términos prácticos:

  • Cada página tiene un único propósito definitivo . Por ejemplo, la página de pago contiene solo lo que se requiere para el proceso de pago. La página de contacto contiene solo detalles de contacto y / o un formulario, no consejos sobre hábitos de aseo personal.
  • El propósito de cada página y cada componente en ella es comprensible instantáneamente por el usuario, sin explicación. Por ejemplo, la interfaz de usuario tiene elementos de navegación en la página que son visualmente distintos (más sobre esto más adelante).
  • Cualquier información adicional que no sea esencial va al final de la página. Por ejemplo, el blogroll adicional en la parte inferior de la publicación con el contenido “también podría gustarle”.

3. Comprenda las necesidades y demandas de su público objetivo

Comprender las necesidades y demandas de su público objetivo puede parecer un consejo obvio de diseño de UX, pero escúcheme. Al igual que en cualquier otro lugar, los diseñadores de UX no pueden encontrar el esquema de diseño de UX correcto sin comprender las necesidades y demandas de la audiencia objetivo.

¿Por qué es esto un problema? Por la falsa suposición de que si estás operando en el segmento de mercado, entiendes lo que la audiencia quiere y necesita sin estudiarlo. Si bien parte de su intuición puede dar en el blanco, gran parte no lo hará.

Obtenga esta información vital sobre la experiencia del usuario durante el proceso de diseño con estos dos pasos:

  1. Recopile comentarios de sus usuarios a través de encuestas
  2. Observe cómo los usuarios usan su producto o productos similares, ya sea en persona o de forma remota

Estos son los tipos de preguntas que esta información puede responderle:

  • ¿Quiénes son sus usuarios, demográficamente hablando? (Por ejemplo: hombres, mujeres, personas conocedoras de la tecnología, novatos en tecnología, adultos jóvenes, etc.)
  • ¿Cuáles son las necesidades de sus usuarios? ¿Cómo puede dar una solución a sus necesidades?
  • ¿Cómo se manifiesta la correlación entre sus necesidades y su propuesta de valor en el diseño de la interfaz?

Las respuestas a estas preguntas forman la base de un concepto de diseño de UX válido.

4.Hacer diferentes elementos visualmente distintos

Un diseño de página visualmente distinto es uno de los objetivos más importantes para los diseñadores de UX . Es una forma de mantener un viaje de usuario fluido y una experiencia de usuario atractiva.

En pocas palabras: siempre es bueno cuando no necesitas pensar en cómo encontrar o hacer algo y, en su lugar, puedes simplemente… hacerlo.

Aquí hay varios consejos para hacer que todo haga clic que pueden ser útiles durante el proceso de diseño:

  • La información más valiosa de la página debe destacarse al máximo. Si se trata de una publicación de blog, entonces necesita un título bien definido como “Las mejores tendencias de diseño web ” seguido de subtítulos y subtítulos que profundicen en el tema.
  • Los usuarios deben conocer su ubicación en el sitio web o la aplicación móvil. Las herramientas de navegación deben estar a mano. Por ejemplo, tiene un panel de navegación del sitio web en la parte superior de la página con todas las secciones importantes del sitio web fácilmente accesibles. Los botones para compartir en las redes sociales suelen estar a la izquierda. A la derecha: coloque el blogroll con cosas populares, un flujo de tweets, una nube de etiquetas y otros elementos auxiliares. El contenido “También te puede gustar” va en la parte inferior y tiene como objetivo llevar al usuario a un agujero de gusano.
  • Los botones de acción deben destacarse e incluir una descripción clara de su propósito. Las credenciales esenciales son atractivo, universalidad, legibilidad y funcionalidad. Por ejemplo, un botón de suscripción con un campo para escribir su correo electrónico.
  • El campo de búsqueda debe ser visualmente distinto con la palabra “buscar” y el icono del espejo en él, idealmente. Tradicionalmente, está en la esquina superior derecha de una página.

Y cuando se trata de colores, es importante tener en cuenta que:

  • Los colores de fondo generalmente están apagados
  • El azul es para enlaces de texto
  • El rojo es para las cosas importantes, generalmente alertas o errores
  • Las llamadas a la acción requieren un color de alto contraste, a menudo exclusivo, para destacarse del resto.

5. Mantener la coherencia del flujo de usuarios a lo largo del viaje.

Uno de los aspectos prácticos más importantes del diseño de la experiencia del usuario es el ” flujo “, la continuidad constante del viaje del usuario.

En términos de diseño, el flujo se produce cuando el viaje del usuario desde una sección del sitio web o la aplicación móvil a otra es perfecto para cumplir su objetivo final: ofrecer el valor.

He aquí por qué es importante: un esquema de diseño consistente ayuda a los usuarios a obtener lo que quieren y necesitan sin problemas, como si fuera lo más natural. Eso está funcionando para su beneficio. La coherencia perpetúa el uso.

Para mantener la coherencia, es necesario pensar en lo que el usuario va a hacer paso a paso.

Tomemos el flujo de un sitio web, por ejemplo. El usuario comienza su viaje en un punto de entrada, generalmente la página de inicio o una publicación de blog. Tienes que pensar a dónde te llevará ese punto de entrada. Por ejemplo, podría conducir a otra publicación de blog que amplíe el tema o una página que ofrezca algún servicio o producto que responda a las necesidades del usuario.

La otra cosa a considerar son las páginas sin salida, aquellas páginas que no conducen a ningún otro sitio. Debe evitar estos casos a lo largo del recorrido del usuario cuando sea posible. Todo debe conducir a algo.

Finalmente, cada flujo de sitio web tiene un objetivo final: donde se encuentran las necesidades de los usuarios y los objetivos de su sitio web. Por ejemplo, si los usuarios buscan contenido valioso y usted ofrece contenido valioso, entonces el objetivo final probablemente sea un botón de suscripción o un enlace de Patreon.

Conclusión

El secreto de un buen diseño de UX es hacer que funcione tanto para sus usuarios como para su plataforma. En esencia, una experiencia de usuario bien diseñada se reduce a llevar al usuario a la información o las herramientas que necesita, mientras elimina todo lo que pueda interrumpir su viaje. Si bien el objetivo parece entenderse universalmente, lograrlo puede ser un poco turbio.

Estos consejos para el diseño de UX lo ayudarán a descubrir los elementos clave que harán que su diseño haga clic en su público objetivo y que la interacción sea beneficiosa tanto para usted como para los usuarios.

10 consejos esenciales de diseño de UI (interfaz de usuario)

Memorice estas 10 pautas si desea crear diseños de interfaz de usuario elegantes, fáciles de usar y centrados en las personas.

Un sitio web es mucho más que un grupo de páginas conectadas por enlaces. Es una interfaz, un espacio donde diferentes cosas, en este caso, una persona y la presencia web de una empresa o individuo, se encuentran, se comunican y se afectan entre sí. Esa interacción crea una experiencia para el visitante y, como diseñador web, es su trabajo asegurarse de que la experiencia sea lo mejor posible.

Y la clave para eso es pensar en su usuario ante todo, y siempre.

Afortunadamente, aunque el diseño web es una disciplina relativamente nueva, le debe mucho al estudio científico de la interacción humano-computadora (HCI). Y estas 9 prácticas pautas directamente de la investigación de HCI lo ayudarán a concentrarse en sus usuarios durante el proceso de diseño .

El diseño de la interfaz, que se centra en el diseño de la funcionalidad de las interfaces, es un subconjunto del diseño de la experiencia del usuario, que se centra en el panorama general: es decir, toda la experiencia, no solo la interfaz.

1. Conozca a sus usuarios

Por encima de todo, debe saber quiénes son sus usuarios, por dentro y por fuera. Eso significa conocer todos los datos demográficos que pueden extraer sus aplicaciones de análisis, sí. Pero lo que es más importante, significa saber qué necesitan y qué se interpone en su camino para lograr sus objetivos.

Llegar a ese nivel de empatía requiere más que un análisis cuidadoso de las estadísticas. Requiere conocer a las personas que utilizan su sitio web. Significa hablar con ellos cara a cara, verlos usar su producto (y tal vez otros) y hacerles preguntas que van más allá de “¿Qué piensas de este diseño?”

Cuales son sus metas? ¿Qué se interpone en su camino para lograr esos objetivos? ¿Cómo puede un sitio web ayudarlos a superar o superar esos desafíos?

No dejes de saber lo que quieren tus usuarios. Profundice y descubra lo que necesitan. Después de todo, los deseos son sólo consecuencia de las necesidades. Si puede abordar la necesidad profundamente arraigada de un usuario, abordará sus deseos al mismo tiempo que cumple con requisitos más fundamentales. 

La información que descubrirá al analizar los datos y hablar con los usuarios informará cada decisión que tome, desde cómo las personas usan su interfaz hasta qué tipos de contenido destacará dentro de esa interfaz.

2. Defina cómo las personas usan su interfaz

Antes de diseñar su interfaz, debe definir cómo la usarán las personas. Con la creciente prevalencia de los dispositivos táctiles, es una preocupación más fundamental de lo que podría pensar. Solo mira 

Tinder: la experiencia del usuario de la aplicación se define literalmente por la facilidad y la impulsividad de un simple deslizamiento.

Las personas utilizan los sitios web y las aplicaciones de dos maneras: directamente (interactuando con los elementos de la interfaz del producto) e indirectamente (interactuando con elementos de la interfaz de usuario externos al producto).

Ejemplos de interacciones directas

  • ‍Pulsar un botón
  • Deslizar una tarjeta
  • Arrastrar y soltar un elemento con la yema del dedo

Ejemplos de interacciones indirectas

  • Señalar y hacer clic con el mouse
  • Usar comandos de teclado / atajos
  • Escribir en un campo de formulario
  • Dibujar en una tableta Wacom

Quiénes son sus usuarios y qué dispositivos utilizan deben informar profundamente sus decisiones aquí. Si está diseñando para personas mayores u otras personas con destreza manual limitada, no querrá apoyarse en deslizar. Si está diseñando para escritores o codificadores, que interactúan principalmente con aplicaciones a través del teclado, querrá admitir todos los atajos de teclado comunes para minimizar el tiempo de trabajo con el mouse.

3. Establecer expectativas

Muchas interacciones con un sitio o aplicación tienen consecuencias: hacer clic en un botón puede significar gastar dinero, borrar un sitio web o hacer un comentario despectivo sobre el pastel de cumpleaños de la abuela. Y siempre que hay consecuencias, también hay ansiedad.

Por lo tanto, asegúrese de informar a los usuarios qué sucederá después de hacer clic en ese botón antes de hacerlo. Puede hacer esto a través del diseño y / o copia.

Estableciendo expectativas con diseño 

  • Resaltando el botón que corresponde a la acción deseada
  • Usar un símbolo ampliamente comprendido (como un bote de basura para un botón de eliminar, un signo más para agregar algo o una lupa para buscar) en combinación con copiar
  • Elegir un color con un significado relevante (verde para un botón “ir”, rojo para “detener”)

Establecer expectativas con copia

  • Escribir copia de botón claro
  • Proporcionar una copia direccional / alentadora en estados vacíos
  • Entrega de advertencias y solicitud de confirmación

Para acciones con consecuencias irreversibles, como eliminar algo de forma permanente, tiene sentido preguntar a las personas si están seguras.

4. Anticipa errores

> Errar es humano; perdonar, divino.

Alexander Pope, “Un ensayo sobre la crítica”

Las personas cometen errores, pero no deberían (siempre) tener que sufrir las consecuencias. Hay dos formas de ayudar a reducir el impacto del error humano:

  1. Evite errores antes de que ocurran
  2. Proporcionar formas de solucionarlos después de que sucedan

Ve muchas técnicas de prevención de errores en el comercio electrónico y el diseño de formularios. Los botones permanecen inactivos hasta que complete todos los campos. Los formularios detectan que una dirección de correo electrónico no se ha introducido correctamente. Las ventanas emergentes le preguntan si realmente desea abandonar su carrito de compras (sí, lo hago, Amazon, no importa cuánto le marque al pobrecito).

Anticipar los errores suele ser menos frustrante que tratar de corregirlos después de los hechos. Esto se debe a que ocurren antes de que la sensación satisfactoria de finalización que viene al hacer clic en el botón “Siguiente” o “Enviar” pueda establecerse.

Dicho esto, a veces hay que dejar que ocurran accidentes. Ahí es cuando los mensajes de error detallados realmente entran en juego.

Cuando escriba mensajes de error, asegúrese de que hagan dos cosas:

  1. Explique el problema. Por ejemplo, “Dijiste que naciste en Marte, que los humanos no han colonizado. Todavía.”
  2. Explique cómo solucionarlo. Por ejemplo, “Introduzca un lugar de nacimiento aquí en la Tierra”.

Tenga en cuenta que puede tomar una página de ese mismo libro para situaciones sin errores. Por ejemplo, si elimino algo, pero es posible restaurarlo, avíseme con una línea de copia como “Siempre puede restaurar los elementos eliminados yendo a la Papelera y haciendo clic en Restaurar”.

El principio de anticipar el error del usuario se denomina principio poka-yoke. Poka-yoke es un término japonés que se traduce como “a prueba de errores”.

5. Envíe sus comentarios rápidamente

En el mundo real, el entorno nos retroalimenta. Hablamos y otros responden (normalmente). Rascamos a un gato y este ronronea o sisea (dependiendo de su mal humor y de cuánto chupamos cuando el gato se rasca).

Con demasiada frecuencia, las interfaces digitales no devuelven mucho, dejándonos preguntándonos si deberíamos volver a cargar la página, reiniciar la computadora portátil o simplemente tirarla por la ventana más cercana disponible.

Así que dame esa animación de carga. Haga que ese botón salte y vuelva a abrirse cuando lo toque, pero no demasiado. Y dame un choca esos cinco cuando hago algo que tú y yo estoy de acuerdo es increíble.

Publicaciones