Ricerca e sviluppo

In questa pagina sono pubblicati articoli e commenti riguardanti ricerca, sviluppo e università. Si parlerà delle iniziative sia legislative sia tecniche atte a migliorare questi strategici settori nel nostro Paese.

6 risposte a "Ricerca e sviluppo"

  1. ALBERTO ACCIARITO 27 dicembre 2014 / 16:15

    Ecco l’invasione degli ultracibi
    Grande come una pallina da ping pong, la “ wikipearl ” si scioglie in bocca a contatto con la saliva. Il guscio è commestibile e racchiude yogurt, formaggio, oppure gelato. Zero packaging, impatto ambientale quasi nullo: sugli scaffali dei supermercati bio Whole Foods, negli Stati Uniti, una confezione da due “conchiglie” costa quattro dollari. È l’ultima invenzione di WikiFoods, la startup di Cambridge fondata da David Edwards, un biologo che insegna a Harvard. La pallina ecosostenibile non cambierà le sorti dell’umanità, ma per il newsmagazine americano “Time” è una delle 25 invenzioni più importanti del 2014: il segno che, d’ora in poi, il mondo del cibo non sarà più come lo abbiamo conosciuto finora.

    La biotecnologia, infatti, sta rivoluzionando lo scenario dei prodotti alimentari, nei Paesi avanzati e in quelli emergenti. Nel settore degli ogm, ma soprattutto in quello dei cibi naturali, accettati con maggior favore dall’opinione pubblica. Le industrie agroalimentari e i “food lab” delle startup sfornano novità a getto continuo: bistecche sintetiche ricavate da cellule staminali bovine, maionese senza uova, hamburger vegetali al gusto di carne per vegani e vegetariani, spaghetti stampati in 3D.
    vedi anche:
    Schermata-2014-12-24-alle-12-31-23-png
    Formaggi dalle piante e hamburger in 3D
    Ecco il carrello della spesa impossibile
    Hamburger vegetali, uova ricavate 
dalle piante, bistecche fatte con cellule staminali dei bovini, formaggio dal latte di cammella, pomodori coltivati in acqua con impianti idroponici domestici. “Impossible foods” diventano realtà 
e trovano spazio sugli scaffali dei supermercati. Eccone alcuni
    E ancora, diavolerie come Fairlife, il “superlatte” che Coca Cola si prepara a lanciare nel 2015: contiene il 50 per cento di proteine in più, il trenta per cento degli zuccheri in meno, molto calcio e zero lattosio.

    Con la diffusione di allergie, intolleranze alimentari e celiachia, inoltre, già da tempo è esploso – anche in Italia – il mercato degli integratori alimentari e dei cibi “gluten-free”. In un contesto del genere, in cui il marketing ha un ruolo preponderante, ha un sapore romantico il libro “In difesa del cibo” (Adelphi editore), in cui Michael Pollan spara a zero contro gli eccessi del nutrizionismo e invita tutti a «non mangiare nulla che la vostra bisnonna non riconoscerebbe come cibo».

    A TAVOLA IN NOVE MILIARDI

    Se l’invasione degli “ultracibi” è già cominciata, cosa mangeremo nel 2050? La domanda è d’obbligo, visto che in quella data la popolazione mondiale raggiungerà quota nove miliardi e cento milioni, un bel balzo rispetto ai sette miliardi di oggi. Ed è una questione di stretta attualità alla vigilia di Expo 2015, a Milano, il cui tema è “Nutrire il pianeta-energia per la vita”. Nei prossimi decenni la crescita demografica sarà concentrata nei Paesi emergenti e nelle grandi città. Risultato: secondo l’Organizzazione delle Nazioni Unite per l’alimentazione e l’agricoltura (Fao), la produzione alimentare per nutrire tutti dovrà aumentare del 70 per cento, spinta soprattutto dai consumi delle cinque nazioni in cui la classe media diventerà più ricca: Cina, India, Indonesia, Nigeria, Pakistan. Da 2.800 calorie consumate al giorno, le stime dicono che nel 2050 si passerà a 3.500. Con le dovute differenze, lo scenario evoca il film di fantascienza “Interstellar” di Christopher Nolan, in cui un gruppo di astronauti abbandona la Terra, priva di cibo a causa dei cambiamenti climatici. E parte alla scoperta di nuove risorse.
    http://www.wikipearl.com/ http://www.wikipearl.com/

    QUINOA E AMARANTO NEL PIATTO

    Da questi numeri parte “Food, il futuro del cibo”, la grande mostra di National Geographic (fino al primo marzo 2015 al Palazzo delle Esposizioni a Roma) che racconta l’alimentazione in tutti i suoi aspetti. Oltre 90 immagini dei fotografi di NatGeo per rispondere alla domanda: come sfamare in maniera sostenibile un pianeta sempre più affollato? Una cosa è certa: per produrre di più e a costi accessibili, occorre mettere in campo soluzioni inedite. Orti urbani, piccole serre domestiche per la coltivazione idroponica (in acqua) di frutta e verdura, integratori alimentari naturali creati in laboratorio. Uno studio Fao, che ha fatto molto discutere, suggerisce di guardare agli insetti che abitano nelle foreste, già oggi nella dieta di due miliardi di persone: coleotteri, bruchi, vespe, formiche, cavallette e grilli, ricchi di proteine e grassi buoni, calcio, ferro e zinco. «C’è bisogno di nuovi cibi, ma serve soprattutto incrementare la produttività delle terre coltivate, che nei prossimi anni tenderanno a diminuire per effetto della pressione demografica e dei cambiamenti climatici», sintetizza Francesco Bonomi, docente di Biochimica all’università di Milano, uno dei professori del team del professor Gian Vincenzo Zuccotti, che collabora con Expo 2015 su incarico del rettore dell’ateneo. Da esperto biochimico, il professor Bonomi ha ben presente il tema dell’innovazione tecnologica. Ma per affrontare il problema suggerisce di partire dagli sprechi. «È uno dei temi cruciali, ma non riguarda solo il cibo buttato nella spazzatura. Molte derrate alimentari, infatti, restano nei campi; altre vengono danneggiate da parassiti o altri agenti patogeni».

    Molte risorse alimentari, tuttavia, sono più vicine di quanto sembri. «Innovare significa anzitutto attingere a materie prime finora sottoutilizzate. E aprire in Occidente nuovi mercati per i Paesi emergenti. Fino a dieci anni fa chi aveva mai sentito parlare di quinoa e amaranto?», continua Bonomi. La quinoa, alimento base delle antiche civiltà delle Ande in Sudamerica, è coltivata soprattutto in Perù e in Bolivia. Non è un cereale, ma è spesso definita uno pseudocereale per via del suo aspetto, simile a un chicco di grano. In Italia è nota a un pubblico più ampio e crescente: priva di glutine e ricca di proteine, viene spesso utilizzata da vegetariani e vegani. E appartiene alla stessa famiglia dell’amaranto, pianta color rosso utilizzata da migliaia di anni in Centro e in Sud America. È lungo l’elenco delle piante potenzialmente appetibili: la perilla, pianta aromatica della famiglia della menta; diverse specie di riso dell’Africa sudoccidentale; la stevia, originaria dell’Uruguay, uno dei più potenti dolcificanti al mondo; i semi di chia, coltivati già dagli Aztechi in epoca precolombiana, ricchi di acidi grassi omega 3. Alcuni spunti interessanti vengono dalla mostra “Food – La scienza dai semi al piatto” (Museo di Storia Naturale di Milano fino al 28 giugno 2015), a cura di Dario Bressanini e Beatrice Mattino: un percorso avvincente tra immagini al microscopio, video didattici e giochi interattivi, alla scoperta di semi che escono per la prima volta dalle più importanti banche dei semi italiane. «La biodiversità è un concetto da applicare su scala planetaria, non in chiave autoreferenziale», avverte Bonomi: «Non si tratta di tutelare il cardo gobbo e il lardo di colonnata, ma di aprire nuovi mercati a prodotti che provengono da altre aree del mondo. Sul piano dell’innovazione l’Italia sconta un ritardo culturale e industriale impressionante. Siamo bravi a difendere ciò che abbiamo, ma non sono convinto che questa sia una buona strategia in un pianeta sempre più globalizzato».

    SILICON VALLEY 2.0

    Nel frattempo, gli investitori privati hanno fiutato l’affare e puntano sulle startup “food tech”, le giovani fucine dove nascono i cibi del futuro. Nel primo semestre 2014, le società del settore “food and beverages” hanno raccolto nel mondo un miliardo e cento milioni di dollari, secondo l’istituto di ricerca Dow Jones VentureSource. L’anno scorso, il settore aveva attirato 1,59 miliardi di dollari, in crescita del 39 per cento rispetto al 2012. Se gli Stati Uniti – e la Silicon Valley – fanno la parte del leone con 678 milioni di dollari, gli altri non stanno a guardare. In Cina, ad esempio, nel 2013 gli investimenti privati nelle startup del settore ammontavano a oltre 484 milioni, a 129 in India, a 93 in Germania. E in Italia? Negli ultimi tempi, anche in vista dell’Expo, le iniziative si moltiplicano: Alimenta2Talent è un concorso per idee di impresa, promosso dal Comune di Milano e dal Parco Tecnologico Padano di Lodi, che premia e finanzia le migliori idee per cambiare il modo di fare agricoltura. Cinque i progetti premiati a novembre su 100 pervenuti: dalle colture acquaponiche agli aerogel, dal “pasto confezionato” per le intolleranze alimentari alla piattaforma di e-commerce per vendere i cibi in scadenza.

    NASCE IL MASTER IN FOOD INNOVATION

    Inoltre, il Future Food Institute di Bologna ha appena lanciato il primo master in Food Innovation, insieme all’università di Reggio Emilia e all’Institute for the future di Palo Alto, in California. Dedicato a studenti italiani e stranieri, durerà otto mesi (marzo-novembre 2015), tra lezioni teoriche e laboratori a cura di docenti provenienti da tutto il mondo, tra cui Caleb Harper, fondatore del progetto MITCityFarm dedicato all’alimentazione di domani. La seconda fase del master, invece, consisterà in un “maker space” in cui verranno creati prototipi innovativi di prodotti e servizi. E durante l’Expo studenti, cittadini e imprese saranno coinvolti in “hackaton”: maratone di cervelli sulle sfide che attendono l’umanità. Nel consiglio scientifico del master c’è anche l’imprenditrice bolognese Sara Roversi, che nel 2008 fondò insieme a Andrea Magelli You Can Group, incubatore di imprese nel campo del cibo, da cui è nato il Future Food Institute. È lei l’anima delle “hackaton”. «Il mondo delle startup è in grande fermento, non solo negli Stati Uniti. C’è chi fa ricerca in laboratorio, producendo magari spirulina, una microalga che può integrare altri prodotti come pane e pasta. E chi studia sul campo, cercando materie prime alternative. Ma c’è un filo rosso che unisce tutti: l’attenzione alla sostenibilità nel modo di produrre, impacchettare, risparmiare energia, ridurre gli sprechi».

    Ogni volta che facciamo la spesa, dunque, compiamo una scelta etica. Del resto, come recita l’aforisma più famoso dello scrittore americano Wendell Berry, ampiamente citato da Slow Food: «Mangiare è un atto agricolo».

    "Mi piace"

  2. ALBERTO ACCIARITO 27 dicembre 2014 / 21:54

    The Internet of Things 2014
    Internet of Things

    Responding to her Friday morning alarm, Stacey gets out of bed. Simultaneously, items throughout her house begin preparing for the day. Although it is cloudy outside, the interior is lighted with tones of a beautiful sunrise, per Stacey’s personalized lighting scheme. The water heater makes sure the shower will be to her preference. When she enters the bathroom, her motion starts coffee brewing and breakfast cooking in the microwave.

    As Stacey eats breakfast, her caloric intake is monitored. The morning headlines and stories are projected onto the wall next to the table. A green indicator says every device in the house is working perfectly, although she would have been notified before anything had come close to malfunctioning, and a repair order would have been automatically issued. The display lets her know that her trip to work today will take 37 minutes via an alternate route due to heavier than normal traffic on her usual route.

    Before she leaves, Stacey thinks about dinner. The display says she should have the chicken tonight or it may spoil. Her phone beeps and tells her that the grill needs a propane tank refill. She hits “auto” to arrange the soonest possible refill delivery based on when her schedule indicates she will be home and able meet the delivery.

    Stacey gets in her car which has already been brought to her ideal interior temperature. The car automatically exits her driveway, at the first available gap in traffic. According to the car’s display, her trip today will cost more than usual due to the congestion toll on the alternate route. She realizes she could have avoided the extra toll by leaving a little earlier.

    When Stacey arrives at work, she glances at her large office display and sees that all plant processes are functioning normally. The display reminds her of the SETI project, but instead of searching for intelligent life in the universe, the programs running behind the scenes are analyzing and displaying rivers of data generated throughout the plant to discover any anomalies, unusual resource needs, overages, or special opportunities.

    With the exception of the autonomous car, all the underlying capabilities described above exist today and are part of the Internet of Things. What does not yet exist, though, are the software and services to aggregate and manage the discrete capabilities to make them commercially available.

    Defining the Internet of Things

    The Internet of Things (IoT) is simply a concept wherein machines and everyday objects are connected via the Internet. Within the IoT, devices are controlled and monitored remotely and usually wirelessly. IDC predicts that the IoT will include 212 billion things globally by the end of 2020. That sounds like a big number, but for context, in 2014 there are over 10 quadrillion ants on the planet. Although ants are not yet members of the IoT, Wifi-connected bees are now in development to help with pollination. MIT is working on smart sand that will be able to move and duplicate 3D objects, and Harvard has already developed 1000-robot swarms. Throw in smart dust motes and IDC’s 212 billion IoT device estimate begins to look conservative.

    The Depth and Variety of Internet Things

    Not long ago, devices on the Internet had to be wired to a fixed location. One of the important drivers behind the Internet of Things is how easy it has now become to wirelessly connect mobile items to the Internet via WiFi, Bluetooth, or proprietary wireless communications protocols.

    Smart IoT devices include everything from structural health monitors for buildings to smart egg trays that know how many eggs you have and how old they are. Home automation devices include Google’s Nest, and two competing families of home and healthcare IoT systems: ZigBee and Z-Wave. The Vessyl smart drinking cup that monitors exactly what you are drinking, the HAPIfork tracks your eating habits, and the Beam tooth brush reports on your brushing history.

    Wearables range from the popular fitbit athletic tracker to smart watches, smart clothes, and biologically- embeddables including pacemakers and glucose monitors.

    Although cars may not yet be autonomous, new models have many Internet-addressable capabilities including remote start, remote climate control, location tracking, as well as the currently-latent ability to track many of your driving habits. Every time you hear a warning beep, another item of data is recorded.

    Almost anything can now be connected to the Internet of Things via wireless sensors, such as the Node+ series, which measure temp, color, CO2, and other metrics.

    Displaying all the data and video

    It is one thing for IoT devices to generate data, but another to store and display it all. Although any Internet-connected display can be used with IoT data, the smartphone may be the most common display and control device, and in many ways is driving IoT innovation. Still, the range and diversity of display devices is exploding in the same way all IoT devices are multiplying. Need a larger display? Switch to Apple TV or Google Chromecast. Need hands-free? Switch to Google Glass or your smart watch or ring. Research is underway to communicate directly to your visual cortex and auditory brain.

    After her workday, Stacey gets back home and she feels like getting some exercise. A glance at her phone tells her that during the day she consumed 700 more calories than her fitbit has recorded her burning. As she gets on her treadmill, it automatically, but safely starts up her workout.

    Her phone beeps to remind her that her son is swimming in the Oahu North Shore Open Water swim in 15 minutes. She really wants to watch it live, so she activates her druper app that allows her to rent almost anything, anywhere at any time. She rents and dispatches a drone with a camera from a depot in Oahu and gives it the swim course coordinates. The live image from the drone is projected on a nearby wall.

    The phone beeps again, this time indicating a text from her sister, “I’ve just landed Pearl Jam tickets for tomorrow night, NYC! Meet me at my apartment ASAP.” This instantly becomes her highest priority, so she does three things. She requests transportation through an Uber-like service to NYC where her sister lives. She sets everything in her home to “idle” status, and clears her calendar. The latter two operations have been preconfigured and are triggered by a single message. Before she leaves the house, she switches the display of video feed from the Hawaiian drone to her Google Glass, so she’ll have an uninterrupted view of her son’s race.

    As her trip to NYC begins, she receives an ominous warning regarding her diabetic father’s glucometer. All readings are normal, but the anti-virus monitor has detected an attack…

    What are the consequences of the Internet of Things?
    The benefits, based solely on products that exist today, let alone the unimagined combinations of emerging capabilities, are tremendous. More than ever the smartphone has become the remote control for life. Data is available at your fingertips on everything imaginable. But there are a number of challenges and disruptions ahead. These challenges include technical issues, business issues, requirements for new and evolving skill sets, legal and legislative difficulties, and social complexities.

    Unbundling and Aggregation
    One of the most disruptive aspects of the IoT is that it enables near-complete unbundling and almost-arbitrary aggregation of all conceivable products and systems. The process of unbundling and aggregation is not entirely new, but the IoT takes it to a new and more accessible level.

    Historical examples of unbundling include the MP3, which unbundled individual songs from complete CD albums. Blogs unbundled individual articles out of complete newspapers. Earlier on the technology timeline, IBM had sold completely bundled computing solutions that included all software and services, until DEC came along and successfully sold smaller, unbundled computers to which you could add your own software and services. AOL successfully sold an aggregated online product, until the Internet provided easy access to all the individual content.

    Over the last thirty year, there has been a pattern of aggregation, followed by unbundling, followed by re-aggregation. As DEC started to aggregate their products back together, Microsoft and Intel offered a new unbundled computing approach. Apple and Google offered unbundled versions of Microsoft’s aggregations. The process continued with Whatsapp, Instagram, and Twitter unbundled messaging, photo sharing, and status updates from Facebook. The ultimate unbundled product today may be Yo, described as a one-bit communication app, whose sole capability is to send the message, Yo, to predefined recipients, triggering predefined activities through aggregating apps like IFTTT.

    Occulus Rift is an aggregated full-immersion virtual reality display, that creates virtual worlds that are so realistic users have been known to rip it off their head in terror. Google provides an unbundled version of these capabilities, called Google Cardboard, that you assemble yourself using your smartphone, VR apps and a Bluetooth game controller.

    The ultimate unbundling, still well over the horizon, is programmable matter, in the form of buckminsterfullerene (bucky-balls) or nanotubes, which can be theoretically combined into any shape and function.

    IoT Challenges and Opportunities
    Just as with technology revolutions of the past, including the telegraph (1840s), railroads (1880s), and the early days of the Internet itself (1990s), the IoT creates revolutionary opportunities both for businesses and individuals. Those who understand the underlying IoT fundamentals, possess the needed skills, and can meet the technical challenges will have a major advantage.

    Business Opportunities
    The IoT offers several major categories of opportunities. First there are the basic components and devices that connect to the network via Wi-Fi or Bluetooth. The next level includes entirely new aggregated products and systems that combine these devices in new ways, like home management systems. The third level and by far the largest and fastest growing consists of all the services providing customized solutions to businesses and consumers. These include data analysis services to help make sense of the vast amount of Big Data generated by the IoT. Of the >$1 trillion IoT market predicted for 2020, 58% is made up of managed services, with the other 43% going to enablement hardware (4%) and network services (39%).

    The IoT gives businesses new ways to instantly connect with customers. Just as Airbnb opened up the concept of renting homes and rooms over the Internet, all sorts of Internet devices and services can now be rented on demand, for example drones and robots. Doublerobots is already offering their robot for remote test driving via the web.

    All existing businesses must understand the impact of the IoT on their operations and rethink their business models. Business models are shifting from discrete product sales, to recurring revenue models. The IoT provides the opportunity, rapidly evolving into the need, to monitor and respond to customers in near realtime. Individual products no longer exist in a vacuum; interactions among devices from multiple sources and vendors must be understood and taken into account. The battle over the concept of the home command center between Nest/Google, Wink/Quirky, Homekit/Apple, Insteon, Smartthings, and Revolv is an example of companies trying to gain control over an important segment of the IoT.

    Products and bundles can be remotely reconfigured and repaired quickly. Customers can be provided with tools to do their own reconfiguration. Ultimately, adaptive systems will reconfigure themselves to customer needs. Agile businesses that can customize and personalize their products to their customers’ immediate needs have a strong advantage.

    Insurance concerns and opportunities; example autonomous cars, but also data will make it easier to assess risks; opportunity for new pricing models: insurance premium tuning based on health and driving data

    The Internet of Things is bringing changes to government. On the municipal scale, San Francisco has already implemented SFpark, which enables drivers to locate open parking spaces with a smart phone app and also pay through the app. Parking fees vary by block, time of day, and day of week. A new era of congestion pricing is being ushered in for state highways.

    Technical Concerns
    Participation in the IoT begins with a solid network infrastructure so that all the things, devices, phones, displays, and controllers, can easily communicate. Wi-Fi is an important means to provide wireless connectivity. Today, access is provided by 802.11n or 802.11ac standard access points. Chips are now in development for 802.11ah, a lower power standard to meet the needs of future IoT devices.

    Because it is easy to bring so many devices of a wide variety into the range of a Wi-Fi network, it is extremely important for the network to handle high volume and density of the devices, and to be capable of discriminating between permitted and rogue devices. The whole concept of Bring Your Own Device (BYOD) takes on new meaning with the enormous range of mobile and wearable IoT devices. Each device is capable of generating an enormous amount of data that must be stored, protected, and analyzed.

    Gartner predicts that by 2017, users will download 268 billion apps, half of them to wearable devices. Users will be providing personalized data streams to more than 100 apps and services every day. It is important for businesses to understand these application and data flows and be able to identify bottlenecks.

    Powering the mobile sensors and controllers presents a challenge. Batteries must be kept small, but still provide a usable life between charges. Research into the concept of the ambient energy harvesting, that is, using readily-available ambient heat, light, vibrations, even jaw bone motion to power IoT devices, will have strong benefits to the IoT.

    Security Concerns
    The recently reported breaches are indicative of the need for overall better protection of sensitive online personal data. The IoT puts many more doors on the Internet that need to be securely locked and monitored. Early this year, Proofpoint, a security-as-a-service vendor, issued a report stating that 750,000 phishing and SPAM emails had been sent by home-networking routers, connected multi-media centers, televisions, and refrigerators.

    The massive Target breach was caused by a heating, ventilation and air conditioning company. Stealing personal data and corporate data is bad enough, but the prospect of hacking into life support systems and even embedded medical devices is life-threatening.

    Social and Legal Concerns
    All the new streams of data becoming available on the Internet raise difficult privacy and moral issues that are only starting to be addressed. Who owns the video streaming in from Google Glass and the healthcare-related date streaming from other wearables? What happens when autonomous devices run amok?

    The IoT encourages a new level of outsourcing, and with it concerns about service availability, response times, issues of scalability, price structure issues, defining project completion, and intellectual property ownership.

    How Can You Prepare?
    The growth of Internet of Things opens up opportunities for businesses and people with the right skills. These skills include network design, data analysis, data security, and engineering. Mckinsey projects the need for 1.5 million additional managers and analysts “with a sharp understanding of how big data can be applied” in the United States. Gartner has predicted there will be 4.4 million global big data jobs by 2015, only one-third of which will be filled.

    And finally, the IoT is opening up new avenues for humor: Near Future Laboratory “offers” surplus networked pillows, weather-sensing hair extensions, and the MeWee Monitor through their TBD Catalog, which the company describes as “a printed catalog you ritually pick up every morning to browse on your mostly boring, everyday ordinary driverless commute

    "Mi piace"

  3. ALBERTO ACCIARITO 28 dicembre 2014 / 15:20

    Big Data, una miniera per l’Italia
    Uno studio dell’Osservatorio Polimi conferma l’espansione del mercato, che rappresenta la principale priorità di investimento per il 2015

    Continua il boom del mercato Big Data Analytics in Italia che, nel 2014, si conferma in forte espansione con un trend di crescita del +25%. L’analisi di tutto quel fiume di informazioni che viaggiano e transitano attraverso Internet e che può descrivere, ad esempio, dagli umori del mercato ai trend del commercio attraverso le scelte registrate via web del consumatore, dimostra quindi in questo anno che sta per finire, «una crescita sostenuta, più che da un utilizzo maturo di questi strumenti, dalla disponibilità di tecnologie di storage a basso costo, dalla crescente mole di dati generati dal web e dalla diffusione di un numero sempre maggiore di dispositivi mobile che permettono di utilizzare app, fare pagamenti ed interagire con dispositivi intelligenti».

    E ancora. L’ambito Big Data Analytics rappresenta inoltre la principale priorità di investimento per il 2015, indicata dal 56% dei Cio (Chief Information Officer, il manager cioè responsabile della funzione aziendale delle tecnologie dell’informazione e della comunicazione.

    Lo scenario emerge dalla ricerca 2014 dell’Osservatorio Big Data Analytics & Business Intelligence (osservatori.net), promossa dalla School of Management del Politecnico di Milano, e presentata questa mattina al convegno tenutosi all’Aula Carlo De Carli del Politecnico di Milano, in cui Jobrapido, Enel e EuropCar sono stati premiati con il «Big Data Innovation Award» per i migliori progetti di adozione di sistemi di Intelligence e Analytics a supporto dei processi decisionali aziendali.

    Stando allo studio, inoltre, nel settore dei Big Data Analytics sono ancora ampie le potenzialità da cogliere in particolare nell’utilizzo dei dati destrutturati, se si considera, sottolineano gli analisti dell’Osservatorio del Polimi, che nell’’84% dei casi sono utilizzano dati interni aziendali e solo nel 16% fonti esterne come web e social media. Ma non è tutto. Emerge chiaramente, rimarca la ricerca, la mancanza di adeguati competenze e modelli di governance, poiché solo il 17% delle imprese si è dotata di un Chief Data Officer e solo il 13% di un Data Scientist.

    «Per LinkedIn lo studio dei Big Data è fondamentale» osserva Albergoni. «Proprio grazie a una continua analisi ed elaborazione degli stessi, infatti, -sperga-il social network dedicato ai professionisti offre ai suoi oltre 330 milioni di utenti, in 200 differenti paesi, e alle 4 milioni di aziende, che hanno aperto una Company Page, gli strumenti per essere sempre aggiornati sulle novità e le tendenze del proprio settore d’interesse».

    In questo modo, aggiunge Albergoni, «le nuove generazioni possono entrare in contatto nella maniera migliore, da desktop e da mobile, con il mondo del lavoro». Miliardi di dati, dunque, per milioni di opportunità d’interazione professionale, evidenzia il responsabile italiano di LinkedIn, che, sottolinea, «grazie al costante aggiornamento dell’Economic Graph vorremmo far arrivare a tutti quei talenti attivi o passivi che compongono oggi il network della classe dirigente del futuro

    "Mi piace"

  4. ALBERTO ACCIARITO 28 dicembre 2014 / 15:21

    L’indice di sviluppo Ict nel mondo

    L’indice di sviluppo Ict nel mondo

    Il MIS Report dell’Itu ( Unione internazionale delle telecomunicazioni) è uno degli strumenti più autorevoli per misurare la società dell’informazione nel mondo.

    ICT Development Index (IDI) è un indice che dal 2009 mette in fila 166 economie sulla base del loro livello di accesso, utilizzo e competenze Ict (information and communication technology). Il rapporto dell’Itu tiene traccia anche dell’ICT Price Basket (IPB), un indice basato sul prezzo dei servizi di telefonia fissa, mobile e in banda larga per valutare l’accesso alle tecnologie di rete di oltre 140 economie.

    Ebbene, ciò premesso, ecco alcune evidenze del nuovo rapporto.

    Secondo il Rapporto 2014 la Danimarca scavalca la Corea del Sud al primo posto della classifica dei paesi più connessi al mondo. L’Italia si posiziona solamente al 36esimo posto, dietro a paesi come Emirati Arabi, Qatar e Barbados. Dal documento emerge come oltre 3 miliardi di persone siano ormai online e le tecnologie dell’informazione e della comunicazione continuano a crescere a ritmo sostenuto in tutti i paesi del mondo”.

    Ai primi posti figurano anche Svezia, Islanda, Gran Bretagna, Norvegia, Olanda, Finlandia, Honk Kong, Lussemburgo, Giappone e Australia e lo scorso anno l’utilizzo di internet è aumentato dell’8,7% anche nei paesi in via di sviluppo, dove vive ancora il 90% dei 4,3 miliardi di persone che non dispongono di una connessione a internet.

    Secondo le previsioni dell’Itu, entro la fine di quest’anno il 44% delle abitazioni del mondo avranno un accesso a internet, contro il 40% di fine 2013 e il 30% del 2000.

    "Mi piace"

  5. ALBERTO ACCIARITO 28 dicembre 2014 / 19:56

    Banda larga, gettando la fibra oltre l’ostacolo
    di Lavoce.info | 28 dicembre 2014
    Commenti

    Più informazioni su: Banda Larga, Dividendo Digitale, Fibra Ottica, Governo Renzi, Investimenti
    Lavoce.info
    Watchdog della politica economica italiana
    Post | Articoli

    Il governo indica la banda ultra-larga tra le sue priorità. Ed è un bene. Meno positivo che si affidi a un’unica soluzione tecnologica, per di più molto ambiziosa. C’è il rischio che il progetto non si realizzi per mancanza dei necessari investimenti privati. L’importanza della regolazione.

    di Carlo Cambini, Michele Polo e Antonio Sassano, 23 dicembre 2014, lavoce.info

    La strategia per la banda larga

    Nelle ultime settimane la discussione sullo sviluppo delle reti a banda larga in Italia ha conosciuto due importanti passaggi: da una parte, il Governo ha pubblicato un documento (Strategia italiana per la banda ultralarga) che, facendo seguito al Rapporto Caio del febbraio 2014, pone le basi per una politica coordinata di sviluppo delle nuove infrastrutture di telecomunicazione e individua le cifre del finanziamento pubblico che potrà contribuire a questo progetto. Dall’altra, l’Autorità per le garanzie nelle comunicazioni e l’Autorità garante della concorrenza e del mercato hanno pubblicato i risultati dell’indagine conoscitiva congiunta sugli stessi temi.
    Pubblicità

    Il documento del governo enuncia un obiettivo, associato a quelli della Agenda digitale europea, di dotare l’85 per cento della popolazione italiana di un accesso a banda ultra-larga (100 Mbps) e il rimanente di un accesso a 30 Mbps entro il 2020. Tra le molte opzioni tecnologiche in grado di assicurare queste performance, il piano governativo fa una scelta esplicita per la soluzione Fttb (Fiber to the Building), e cioè per la posa della fibra ottica fino ai palazzi degli utenti. Classifica quattro diverse situazioni (cluster) territoriali, a seconda dell’intensità degli incentivi privati a costruire reti in fibra ottica. Individua diverse forme di contributo pubblico, che vanno dalle agevolazioni fiscali, unico strumento nelle zone dove esiste una forte profittabilità privata, fino alla compartecipazione agli investimenti e ai contributi a fondo perduto, da associare all’organizzazione di gare per l’assegnazione della realizzazione delle infrastrutture. Mette infine sul piatto 6,5 miliardi nei sei anni del piano, che derivano da fondi europei, nazionali e regionali, prevedendo un finanziamento da parte degli operatori privati compreso tra 1 e 6 miliardi di euro.

    Il documento delle Autorità, in molti punti coerente con questa impostazione, approfondisce tra l’altro il tema delle strutture di mercato che si potranno realizzare nella banda ultra-larga, da quella di un operatore di rete puro che la realizzi e venda l’accesso agli operatori di servizi, sulla falsa riga dell’esperienza Metroweb, a quella di un operatore integrato verticalmente sia nella realizzazione della rete ultra-broadband che nella vendita dei servizi Internet, a quella, preferita dalle Autorità, di un consorzio degli operatori di servizi che realizzi le nuove infrastrutture.

    Una prima valutazione di questa complessa serie di provvedimenti vede con favore la decisione di porre la questione della banda ultra-larga come una priorità nelle politiche del Governo, individuando un ruolo di coordinamento e di promozione nel ministero per lo Sviluppo economico. Altrettanto positiva è l’individuazione di una serie di fonti di finanziamento di entità tutt’altro che trascurabile che contribuirà, dal lato pubblico, alla realizzazione di queste opere. Anche l’analisi differenziata a seconda delle situazioni di partenza e delle caratteristiche della domanda di servizi a banda larga conferisce realismo al piano governativo.
    Riconosciuti questi meriti, tuttavia, riteniamo che il piano strategico enunciato dal governo contenga alcuni elementi di debolezza che potrebbero portare alla situazione paradossale di un piano sulla carta estremamente ambizioso (100 Mbps all’85 per cento degli italiani), ma che nei fatti non riduce, casomai accentua, il digital divide che oggi ci caratterizza. Cerchiamo di spiegare perché.

    Le diverse soluzioni tecnologiche

    L’obiettivo che viene enunciato appare oggi fortemente sovradimensionato rispetto alla domanda di servizi ultra-broadband in Italia. Di per sé questo elemento non sarebbe dirimente, poiché stiamo parlando di un investimento di lungo periodo che fornirà servizi di comunicazione nei decenni a venire, le cui caratteristiche di performance, riassunte nella velocità di connessione, debbono guardare in avanti e pensare alla domanda che si esprimerà in futuro.
    Quello che tuttavia non convince, e appare come un salto logico non motivato, è l’automatica identificazione di una velocità di trasmissione (100 Mbps) con una particolare soluzione tecnologica, la posa delle reti in fibra fino ai palazzi.

    Una velocità quale quella enunciata è oggi assicurata anche da soluzioni che sviluppano la rete in fibra fino agli armadi (Fiber to the Cabinet – FttCab) utilizzando la rete in rame esistente per l’ultimo tratto (rete secondaria), che dagli armadi raggiunge i palazzi e poi, al loro interno, le unità immobiliari dei clienti. Una caratteristica della rete secondaria italiana, rispetto a quella di altri paesi europei, è la sua compattezza, con il 50 per cento della popolazione entro 250 metri dall’armadio. In altri termini, una performance di 100 Mbps per il 50 per cento della popolazione può essere assicurata, in Italia, anche da una soluzione prevalente di FttCab. Così come le reti mobili di quarta generazione (4G – Lte) possono offrire performance analoghe nelle zone meno densamente abitate.

    In altri termini, la soluzione privilegiata nel piano strategico del governo manca di una caratteristica che a nostro avviso è invece cruciale per assicurare il successo dell’intero progetto: predisporre una molteplicità di soluzioni che vengano incontro alle particolari caratteristiche della domanda e della configurazione del territorio e che siano scalabili, possano cioè essere progressivamente arricchite aumentando le performance dell’infrastruttura man mano che la domanda si sviluppa. Una soluzione scalabile, ad esempio, è quella che assegna inizialmente una prevalenza alla ipotesi FttCab, per poi passare negli anni alla più avanzata Fttb oppure alla Ftth (Fiber to the Home), man mano che la domanda di servizi internet aumenta, e una corrispondente suddivisione dell’investimento in fasi successive.

    La scalabilità delle soluzioni appare cruciale poiché permette di graduare l’entità dell’investimento al progressivo sviluppo della domanda, mantenendo quindi una profittabilità che assicura la partecipazione da parte degli operatori privati. Un investimento subito profondo fino ai palazzi può essere motivato da ragioni di politica generale di lungo periodo. Ma al contempo può essere implementato solamente nel caso in cui le risorse pubbliche giochino un ruolo prioritario nel finanziamento dell’intero progetto. E peraltro la cifra complessiva di cui si parla (nel migliore degli scenari, circa 12 miliardi di euro) non appare neppure sufficiente per l’obiettivo di una rete ubiqua di tipo Fttb. Non è invece realistico immaginare l’enunciazione di obiettivi che mancano oggi di una adeguata profittabilità privata e nello stesso tempo affidare il cofinanziamento di una quota importante del progetto agli operatori privati.
    Da questo punto di vista, sono emblematiche le esperienze dell’Australia, che ha ripensato il suo piano Ftth, e di alcune gare regionali per lo sviluppo della banda larga svoltesi di recente. Nel 2011, nella regione Basilicata è stata bandita una gara per la realizzazione, in trentanove comuni, di una rete a banda ultra-larga nella modalità più avanzata (Ftth). Per questo, lo Stato ha messo a disposizione 54,8 milioni di euro e chiesto un cofinanziamento ai privati pari al 30 per cento dell’intero investimento. La gara è andata deserta, rivelando come anche un contributo pubblico del 70 per cento non era in grado di generare ritorni privati adeguati. Successivamente, l’offerta è stata abbassata a 22,3 milioni con la richiesta di coprire un numero maggiore di comuni (64) ma con una soluzione di rete meno profonda (FttCab). A questa gara ha partecipato, aggiudicandosela, la sola Telecom Italia.

    I rischi di un obiettivo troppo ambizioso

    La possibilità che partire da un obiettivo molto ambizioso (Fttb) si traduca in una scarsissima partecipazione degli operatori privati non riguarda solamente le aree marginali, dove oggi e nei prossimi anni la domanda di servizi broadband è stimata troppo bassa dagli operatori privati. Il problema si può ripresentare anche nelle aree più avanzate. Nel valutare le prospettive di una politica generalizzata di gare per lo sviluppo di reti in fibra fino ai palazzi, occorre infatti tenere conto che già oggi gli operatori – Telecom Italia con circa 26mila armadi e Fastweb con circa 13mila armati raggiunti dalla fibra, a cui si aggiungono i piani di Vodafone Italia – hanno sviluppato senza incentivi pubblici una propria rete a banda ultra-larga nella soluzione FttCab, concentrandosi sulle aree dove la domanda di servizi a banda larga è già oggi più sviluppata. Data la compattezza della rete secondaria italiana, questa soluzione già oggi assicurerebbe (utilizzando la tecnologia “vectoring”) un collegamento a 100 Mbps a una porzione sostanziale della popolazione nelle principali città italiane, come si evidenzia nella tabella sottostante. Ci si chiede, quindi, quale sia la convenienza privata a realizzare un investimento ulteriore, che porti la fibra fino ai palazzi, assicurando una performance analoga, almeno per servire la domanda nel breve medio periodo, a quella che già oggi gli investimenti realizzati dagli operatori garantiscono. La risposta, peraltro, si può implicitamente trovare nella decisione di Metroweb di sospendere temporaneamente i propri piani di sviluppo di una rete Fttb o Ftth proprio in quelle città dove le reti degli operatori hanno portato la fibra fino agli armadi.

    catturapolo1

    In conclusione, riteniamo che la scelta del piano governativo di declinare l’obiettivo generale di performance della nuova rete ultra-broadband verso una unica soluzione tecnologica molto costosa rischi di portare a una realizzazione effettiva dei progetti di investimento molto al di sotto degli obiettivi enunciati. Pensiamo invece che preservare una pluralità di soluzioni tecnologiche (FttCab, Fttb, Ftth, Lte) a seconda delle caratteristiche delle diverse situazioni territoriali permetta di amplificare gli incentivi privati all’investimento, graduandoli sul territorio e nel tempo al diverso grado di sviluppo della domanda, e consenta quindi di concentrare le risorse pubbliche su quelle situazioni di digital divide dove gli incentivi privati sono insufficienti. Questo articolato sforzo deve appoggiarsi a diverse forme di finanziamento e contributo pubblico, ma anche a un intelligente disegno della regolazione, che incide fortemente, a seconda delle scelte adottate, sulla profittabilità delle diverse forme di investimento, come abbiamo già discusso.

    Su questo tema il contrasto tra Telecom Italia e gli altri è a livelli massimi, ma è inevitabile che la regolazione non possa essere in conflitto con gli obiettivi di investimento e debba pertanto essere opportunamente ridisegnata. Un prezzo di affitto alla rete secondaria in rame (Slu) basso incentiva l’affitto dell’ultimo miglio e quindi spinge verso un’infrastrutturazione di tipo FttCab. Al contrario, un prezzo del rame costante o in aumento può incentivare una infrastrutturazione in fibra più profonda, e quindi di tipo Fttb/Ftth. Quale sia la soluzione migliore è difficile da valutare, ma la scelta non può che essere quella più appropriata dati gli obiettivi pubblici che si intende perseguire. A ciò è da aggiungere una possibile articolazione geografica dei prezzi, data la previsione di aree differenziate dal punto di vista della dotazione infrastrutturale e quindi con diversi livelli di competizione tra operatori infrastrutturali alternativi. Gettare la fibra oltre l’ostacolo può sembrare un esercizio di coraggio e di lungimiranza. Ma un dirigismo pubblico accentuato può funzionare se si accompagna a risorse pubbliche adeguate.
    Altrimenti, una più attenta considerazione degli incentivi privati si rende necessaria perché all’annuncio segua una effettiva realizzazione dell’progetto.

    "Mi piace"

  6. ALBERTO ACCIARITO 28 dicembre 2014 / 23:49

    ‘intelligenza del futuro secondo Evernote: “Aumentata, ma non artificiale”

    L’azienda, tra i leader nel settore della produttività, ha un team dedicato all’A.I., ma ha una visione lontana da quella proposta da cinema e letteratura. “Le macchine non devono sostituire l’uomo in ciò che sa fare meglio, pensare e creare. Ma possono affiancarlo”
    di ALESSIO SGHERZA

    28 dicembre 2014

    ROMA – Su misura, non sostitutiva, aumentata e non artificiale. E’ la visione dell’intelligenza del futuro, quella al tempo dei pc e degli smartphone, di Evernote, azienda statunitense tra i leader nel settore della produttività, con oltre 100 milioni di utenti in tutto il mondo (due milioni in Italia) e usata da 16mila aziende in 100 paesi. Un colosso della rete la cui voce è sicuramente interessante per gettare uno sguardo sulle funzioni che dobbiamo aspettarci dalla rete.

    Evernote da circa due anni ha creato un team per l’A.I.. Sigla che normalmente si associa a Intelligenza Artificiale, ma non in questo caso: “Per noi A.I. sta per Intelligenza Aumentata, pensiamo che i pc non debbano sostituire le funzioni che l’uomo fa benissimo da se”, spiega a Repubblica.it Zeesha Currimbhoy, vicepresidente di Evernote a capo del team di Augmented Intelligence. Si tratta di un team composto da otto persone che si occupa di sviluppare nuove funzioni per il software dell’azienda. “All’inizio – continua Currymbhoy – alla squadra era stato dato il nome di Data Product team, poi abbiamo cambiato. Ma per noi la A sta appunto per Aumentata. L’intelligenza artificiale è una branca della scienza che cerca di riprodurre attraverso le macchine il comportamento umano. Ovvero fare tutto ciò che l’uomo sa fare: l’auto che si guida da sola, robot che puliscono la casa. Noi non cerchiamo di creare un software che prenda il posto dell’uomo, che faccia quello che l’uomo è già in grado di fare. Noi vogliamo sviluppare funzioni che lavorino con l’utente, amplificandone l’intelligenza e non sostituendola”.

    Insomma, una visione che è quanto di più distante si possa immaginare dal futuro distopico a cui un certo cinema – come A.I. di Steven Spielberg – e una certa letteratura ci hanno abituato: “I computer sono perfetti per fare milioni, miliardi di calcoli al secondo, per cercare molto velocemente. Noi vogliamo combinare questa potenza con quello in cui è bravo l’utente, pensiero strategico e creatività, che combinate con la potenza di calcolo permettono di ottenere qualcosa di molto più potente dei suoi elementi presi singolarmente”. Qualcosa più tipo Minority Report, dal punto di vista della tecnologia insomma. Poi starà all’umanità farne buon uso. Ancora Currimbhoy spiega: “L’uomo non deve smettere di pensare. Per noi l’utente è quello che pensa, non il pc al suo posto. Ma i computer possono aiutarti a fare scelte migliori, scelte più informate, fornendoti informazioni rilevanti nel rumore della rete”.
    L’intelligenza del futuro secondo Evernote: “Aumentata, ma non artificiale”

    Il team Augmented Intelligence di Evernote
    Condividi

    Il team di Evernote è composto da cinque ingegneri, con formazione e provenienza diversa, da un responsabile QA (Quality assurance, verifica della qualità), da un designer il cui compito è – insieme agli ingegneri – di pensare e disegnare l’esperienza dell’utente, e ovviamente dalla Currimbhoy che guida il team. Una piccola squadra flessibile, che lavora su funzioni molto puntuali che si risolvono in poche settimane o su progetti più ampi, come Context lanciato nelle settimane scorse: “Abbiamo lavorato a Context un anno”, continua la vicepresidente. Si tratta di una funzione che offre suggerimenti all’utente mentre crea nuovi contenuti, spunti che possono provenire “dalle note del suo account, da note condivise da un collega e ora anche da fonti di informazione affidabili, incluso The Wall Street Journal”.

    Ma il succo di tutto è creare una personalizzazione su misura dell’utente: “Più l’utente usa evernote – spiega Currimbhoy – più noi dobbiamo capire come lui lo usa, come lavora e come pensa. Per renderlo più efficiente, più produttivo, più in pieno controllo della sua vita”.

    Prima di Context, il gruppo ha lavorato a Related Notes, una specie di versione 1.0 di Context, o Descriptive Search, cercando di superare la ricerca basata sulle singole keywords. “Hai presente quando cerchi di ricordare quella parola che ti serve per trovare il contenuto che cerchi?”, spiega Currimbhoy. “Noi ci sforziamo di parlare nel linguaggio che il computer capisce. Ti chiedi: ‘Che parole avevo usato?’. Ad esempio: sono andata a cena a San Francisco e ho bevuto una bottiglia di vino molto buona e mi sono appuntata solo il nome. Se dovessi cercarla nella maniera classica, dovrei ricordarmi esattamente che parole ho scritto. Noi vogliamo far sì che basti cercare ‘cena a San Francisco la scorsa settimana’ per far filtrare le note correttamente in base a quello che l’utente intende”.

    Currimbhoy spiega anche come si affronta un tema così complesso nel giorno dopo giorno: “È un lavoro molto dinamico e molto fluido. I singoli ingegneri del nostro team lavorano in maniera indipendente sin dall’inizio, dal momento in cui si impianta l’idea fino alla messa in produzione del prodotto. Prima si lavora molto da vicino con il designer, con l’idea di rispondere alla domanda: quale deve essere l’esperienza d’uso? Abbiamo il prodotto giusto, le funzioni giuste? Come userà l’utente questo prodotto? Poi si passa alla costruzione e implementazione vera e propria, analizzando approcci differenzi. Si fanno dei test, si chiedono se è qualcosa di qualità, se si è raggiunto l’obiettivo. Poi si lavorano in altri team più settoriali, per far dialogare il nuovo codice con le app per mac, per android, per pc, così che entri davvero in produzione”.

    Va sottolineato che in una forma o nell’altra, l’idea di intelligenza aumentata che propone l’azienda è una forma sofisticata di ricerca. Ma mai in competizione con Google, garantiscono: “Google vuole farti trovare ogni pezzo d’informazione sul web. Noi di Evernote non siamo interessanti a tutte le informazioni disponibili sul web, la nostra ottica è quella di rispondere ai bisogni individuali del singolo utente. La ‘ricerca’ per noi è una funzione ritagliata su misura all’utente. Ma certo noi impariamo molto dal modo in cui Google approccia i problemi”.

    Il team è composto da sette uomini e una donna. Ma l’intelligenza aumentata non è certo un lavoro solo da uomini, conclude la vicepresidente: “Penso che il problema che la nostra industria ha davanti è il numero insufficiente di donne ingegnere, ed è qualcosa che tutti dobbiamo lavorare intensamente per superare. Le donne possono dare molto alla tecnologia”.

    "Mi piace"

Lascia un commento