WWDC 2017 och Apples nya tillägg till de mobila utvecklingsverktygen

6 juli 2017

Vi var på plats på Apples årliga utvecklarkonferens, WWDC, som hölls i San José, Kalifornien. Över 5300 deltagare och 1000 Apple-ingenjörer samlas under fem dagar för föreläsningar, labbar och event.

Under WWDC hålls en öppen keynote, där de största namnen från Apple presenterar nyheter i form av produkter, såväl hårdvara som mjukvara. Keynoten streamas för alla att följa. Efter keynoten så sker en så kallad “platform state of the union” som riktar sig mer till utvecklare. Denna föreläsning är till för att hjälpa utvecklare att orientera sig kring, och prioritera, veckans alla föreläsningar.

 

Filhantering och Multitasking gör iPad till ett riktigt arbetsverktyg

Med iOS 11 får iPad ett ordentligt lyft som vi tror kommer kunna konkurrera inom flera segment som alternativ till bärbara datorer. Med iOS 11 introduceras två primära tekniker/koncept som gör iPaden till ett smartare arbetsverktyg.

 

Fram tills nu har det varit krångligt och i många fall omöjligt att arbeta med filer i iOS. Med iOS 11 släpper Apple ett kraftfullt stöd för att kunna arbeta med filer mellan applikationer. Användare kan nu snabbt och enkelt bläddra bland sina filer, koppla in tredjepartstjänster som Dropbox och Google Drive, samt med hjälp av “drag and drop” hantera filer mellan olika applikationer.

 

Att lägga in stöd för drag and drop kommer bli kritiskt för många applikationer till lanseringen av iOS 11, och ligger högt på många prioriteringslistor den närmaste tiden.

 

Machine learning och intelligenta system

Det är tydligt att Apple har stort fokus kring machine learning för så gott som alla sina plattformar. Machine learning nämndes i flera föreläsningar och Apple är inte blyga med att beskriva vilka delar av iOS som använder machine learning.

 

Apple släpper nu ett ramverk för just machine learning, kallat “Core ML”, som gör det enklare för utvecklare att skapa och använda sig av så kallade “neural networks” för att skapa smarta applikationer och system. Exempel på användningsområden är bildanalys för att identifiera objekt i realtid från kameran, samt prediktiv textanalys för att, baserat på tidigare inmatning, ge förslag på vad användaren vill göra. Core ML-föreläsningarna på WWDC var mycket populära.

 

Augmented reality

Apple har lanserat ett ramverk för augmented reality. Verktyget heter “ARKit” och tillåter utvecklare att använda data från sensorer och kameran på enheten för att rita ut digitala objekt i en 3D-rymd och få kameran att följa en viss punkt. På detta sätt går det att på en detaljerad nivå läsa av sin omgivning. Istället för att endast rita ut ett 2D-bild på skärmen är det nu möjligt att placera ut ett föremål som anpassar sig efter hur användaren rör sig runt objektet.

 

Apple har redan kunder som bygger lösningar på ARKit, exempelvis IKEA och Lego. Några exempel på vad som är möjligt att bygga med ARKit är appar där det går att se hur en ny lampa ser ut när den hänger i taket och hur den lyser upp sin omgivning. Det är även möjligt att promenera runt och se hur ett hus kommer att se ut på en tomt.

 

Det är kul att se Apples nyaste tillägg till de mobila utvecklingsverktygen och vi ser fram mot att kunna arbeta med dessa i kommande projekt.

Nästa nyhet

Microservices, Serverless Architechture och .NET

28 juni 2017