src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
Antag att part A samlar in privat information om sina användare, där varje användares data representeras som lite vektor. Antag att part B har en egenutvecklad data mining algoritm som kräver att uppskatta avståndet mellan användare, såsom kluster eller närmaste grannar. Vi frågar om det är möjligt för part A att publicera viss information om varje användare så att B kan uppskatta avståndet mellan användare utan att kunna dra några privata slutsatser av en användare. Vår metod innebär att projicera varje användares representation i ett slumpmässigt, lägre-dimensionellt utrymme via en gles Johnson-Lindenstrauss transformera och sedan lägga Gaussian brus till varje ingång av den lägre-dimensionella representationen. Vi visar att metoden bevarar differential integritet-där mer integritet önskas, desto större variansen av Gaussian buller. Vidare visar vi hur man kan approximera de verkliga avstånden mellan användare via endast de lägre dimensionella, perturbed data. Slutligen överväger vi andra perturbationsmetoder som randomiserat svar och gör jämförelser med skissbaserade metoder. Även om målet att släppa användarspecifika data till tredje part är mer omfattande än att bevara avstånd, visar detta arbete att distansberäkningar med integritet är ett uppnåeligt mål.
Kenthapadi m.fl. REF använder Johnson-Lindenstrauss transform för att publicera en privat skiss som gör det möjligt att uppskatta avståndet mellan användare.
8,432,378
Privacy via the Johnson-Lindenstrauss Transform
{'venue': 'Journal of Privacy and Confidentiality, Volume 5, Issue 1, Pages 39-71, 2013', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,117
Cloud computing innebär att anförtro data till informationssystem som hanteras av externa parter på fjärrservrar, i "molnet", vilket ger upphov till nya integritets- och sekretessproblem. Vi föreslår en allmän teknik för att utforma molntjänster som gör det möjligt för molnet att endast se krypterade data, samtidigt som det underlättar vissa databeroende beräkningar. Tekniken är baserad på viktiga översättningar och mixar i webbläsare. Vi fokuserar på en särskild typ av programvara-som-en-tjänst, nämligen tjänster som stöder applikationer, utvärderingar och beslut. Sådana tjänster omfattar hantering av jobbansökningar, offentlig upphandling (t.ex. för civilt byggande) och konferensledning. Vi identifierar de specifika säkerhets- och integritetsrisker som befintliga system utgör. Vi föreslår ett protokoll som tar itu med dem och utgör grunden för ett system som erbjuder starka säkerhets- och integritetsgarantier. Vi uttrycker protokollet och dess egenskaper i språket ProVerif, och bevisa att det ger de avsedda egenskaperna. Vi beskriver ett genomförande av ett särskilt fall av protokollet ConfiChair, som är inriktat på utvärdering av dokument som lämnas in till konferenser. 2. Utgångspunkten är följande: Vi föreslår ett allmänt protokoll som ger sekretess och olänkbarhet egenskaper för molnbaserad konkurrenshantering, förlitar sig på en betrodd konkurrens manager och in-browser nyckelöversättning (avsnitt 3) 3. Vi visar hur de önskade integritetsegenskaperna formellt kan uttryckas och automatiskt verifieras med ProVerif (avsnitt 4) 4. Vi presenterar införandet av ett integritetsstödsystem för konferenshantering (ConfiChair), som bygger på vårt allmänna protokoll (avsnitt 5). Bidrag 1-3 är en generalisering av ett specifikt protokoll för konferensledning och dess verifiering, som vi har föreslagit i [9].
Arapinis m.fl. REF föreslår ett molnbaserat konferenshanteringssystem som garanterar sekretess och sekretess.
2,868,944
Privacy-supporting cloud computing by in-browser key translation
{'venue': 'Journal of Computer Security', 'journal': 'Journal of Computer Security', 'mag_field_of_study': ['Computer Science']}
82,118
Studiet av kollektivt beteende är att förstå hur individer beter sig i en social nätverksmiljö. Oceaner av data som genereras av sociala medier som Facebook, Twitter, Flickr och YouTube presenterar möjligheter och utmaningar för att studera kollektivt beteende i stor skala. I detta arbete strävar vi efter att lära oss förutsäga kollektivt beteende i sociala medier. I synnerhet, med tanke på information om vissa individer, hur kan vi dra slutsatsen att oobserverade individer beter sig i samma nätverk? Ett socialt dimensionsbaserat tillvägagångssätt används för att ta itu med de heterogena kopplingar som presenteras i sociala medier. Nätverken i sociala medier är dock vanligtvis av kolossal storlek och omfattar hundratusentals eller till och med miljoner aktörer. Omfattningen av nätverk innebär skalbart lärande av modeller för kollektiv beteendeförutsägelse. För att ta itu med skalbarhetsfrågan föreslår vi ett eggcentriskt klustersystem för att utvinna glesa sociala dimensioner. Med glesa sociala dimensioner kan den socialdimensionsbaserade metoden effektivt hantera nätverk av miljoner aktörer samtidigt som den visar jämförbara förutsägelser som andra icke skalbara metoder.
Tang och Liu Ref presenterade ett eggcentriskt klustersystem för att underlätta inlärningseffektiviteten och minska minnesefterfrågan.
207,176,497
Scalable learning of collective behavior based on sparse social dimensions
{'venue': 'CIKM', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,119
ABSTRACT Den ultratillförlitliga låg latenskommunikationen (URLLC) i femte generationens mobilkommunikationssystem syftar till att stödja olika nya tillämpningar med strikta krav på latens och tillförlitlighet. Mobile edge computing (MEC) betraktas som en lovande lösning för att minska latensen i beräkningsintensiva uppgifter som utnyttjar kraftfulla datorenheter på kort avstånd. Det senaste arbetet med uppgiftsöverföring till MEC är främst inriktat på avvägningen mellan latens och energiförbrukning, snarare än tillförlitlighet. I detta dokument studeras avvägningen mellan latensen och tillförlitligheten i utlastningen av uppgifter till MEC. En ram tillhandahålls, där användarutrustning partitionerar en uppgift i del-tasks och avlastar dem till flera närliggande kant noder (ENs) i följd. Inom denna ram formulerar vi ett optimeringsproblem för att gemensamt minimera latensen och avlasta felsannolikheten. Eftersom det formulerade problemet är nonconvex, designar vi tre algoritmer baserade på heuristisk sökning, omformulering linjäriseringsteknik och semi-definit avkoppling, respektive, och lösa problemet genom att optimera EN kandidater val, avlasta beställning och uppgift allokering. Jämfört med det tidigare arbetet visar de numeriska simuleringsresultaten att de föreslagna algoritmerna har en bra balans mellan latens och tillförlitlighet i URLC. Bland dem uppnår den heuristiska algoritmen den bästa prestandan när det gäller latens och tillförlitlighet med minimal komplexitet. INDEX TERMS 5G, ultra-tillförlitlig låg latent kommunikation, mobil edge computing, beräkning offloading.
Liu m.fl. studerade avvägningen mellan latens och tillförlitlighet vid avlastning av uppgifter till mobila edge computing REF.
4,105,704
Offloading Schemes in Mobile Edge Computing for Ultra-Reliable Low Latency Communications
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
82,120
Abstract-Data leverans är en viktig funktion av sensor nätverksprogram. Många tillämpningar, såsom militär övervakning, kräver upptäckt av intresserade händelser som ska rapporteras till en kommandocentral inom en angiven tidsram, och därför införa en realtid bunden på kommunikationsfördröjning. Å andra sidan, för att spara energi, en av de mest effektiva metoder är att hålla sensorn noder i vilande tillstånd så länge som möjligt och samtidigt uppfylla tillämpningskraven. Uppenbarligen kan en nod inte kommunicera om den inte är aktiv. Därför, för att leverera data i rätt tid för sådana extremt låga duty-cycle sensor nätverk, kommunikation måste hanteras noggrant bland sensornoder. I detta arbete inför vi tre olika tillvägagångssätt för att i realtid garantera kommunikationsförseningar. För det första presenterar vi en metod för att öka duty-cycle på individuell nod. Sedan beskriver vi en plan för placering av diskbänk noder. Baserat på tidigare två metoder diskuterar vi en hybridstrategi som visar bättre balans mellan kostnad och effektivitet vid begränsad kommunikationsfördröjning. Vår lösning är global och optimal när det gäller att minimera energiförbrukningen för att begränsa pairwise endto-end fördröjning. För många-till-ett och många-till-många fall, som är NP-hårda, föreslår vi motsvarande heuristiska algoritmer för dem. Enligt vår kunskap är dessa de mest allmänna och uppmuntrande resultaten hittills i denna nya forskningsriktning. Vi utvärderar vår design med en omfattande simulering av 5000 noder samt med en småskalig testbädd på TinyOS/Mote plattform. Resultaten visar effektiviteten i vårt tillvägagångssätt och betydande förbättringar jämfört med en befintlig lösning.
Arbetet i Ref-studier som levererar data med en garanterad kommunikationsfördröjning bunden, vilket är viktigt för många övervakningstillämpningar.
17,700,515
Spatiotemporal Delay Control for Low-Duty-Cycle Sensor Networks
{'venue': '2009 30th IEEE Real-Time Systems Symposium', 'journal': '2009 30th IEEE Real-Time Systems Symposium', 'mag_field_of_study': ['Computer Science']}
82,121
Lärande om nätverksrepresentation (RL) syftar till att omvandla noderna i ett nätverk till lågdimensionella vektorutrymmen samtidigt som nätverkets inneboende egenskaper bevaras. Även om nätverket RL har studerats intensivt, de flesta befintliga verk fokuserar på antingen nätverksstruktur eller nod attribut information. I detta dokument föreslår vi en ny ram, kallad ANRL, för att införliva både nätverksstruktur och nodattributinformation på ett principfast sätt. Specifikt föreslår vi en granne förbättring autoencoder att modellera noden attribut information, som rekonstruerar sina mål grannar i stället för sig själv. För att fånga nätverksstrukturen är attribut-aware skipgram-modellen utformad utifrån attributet kodare för att formulera korrelationerna mellan varje nod och dess direkta eller indirekta grannar. Vi utför omfattande experiment på sex verkliga nätverk, inklusive två sociala nätverk, två citeringsnätverk och två användarbeteendenätverk. Resultaten visar empiriskt att ANRL kan uppnå relativt betydande vinster i nodklassificeringen och koppla samman förutsägelser.
Metoden i REF ) modellerar också nodtexten genom attribut-medveten Skip-gram modell.
51,606,615
ANRL: Attributed Network Representation Learning via Deep Neural Networks
{'venue': 'IJCAI', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,122
De ekologiska vetenskaperna har haft stor nytta av den senaste tidens framsteg inom trådlös sensorteknik. Dessa tekniker gör det möjligt för forskare att distribuera nätverk av automatiserade sensorer, som kan övervaka ett landskap på mycket fin temporal och rumslig skala. Dessa nät är dock utsatta för hårda förhållanden, vilket leder till funktionsstörningar i enskilda sensorer och fel i nätverkskommunikationen. De resulterande dataströmmarna uppvisar ofta felaktiga datamätningar och saknade värden. Att identifiera och korrigera dessa är tidskrävande och felbenäget. Vi presenterar en metod för automatiserad datakvalitetskontroll i realtid (QC) som utnyttjar de rumsliga och tidsmässiga korrelationerna i data för att skilja sensorfel från giltiga observationer. Modellen anpassar sig till varje installationsplats genom att lära sig en Bayesian nätverksstruktur som fångar rumsliga relationer mellan sensorer, och den utökar strukturen till ett dynamiskt Bayesian nätverk för att införliva temporal korrelationer. Denna modell kan flagga felaktiga observationer och förutsäga de sanna värdena av de saknade eller korrupta avläsningar. Modellens prestanda utvärderas utifrån data som samlats in av SensorScope-projektet. Resultaten visar att spatiotemporalmodellen visar tydliga fördelar jämfört med modeller som endast inkluderar tidsbundna eller endast rumsliga korrelationer, och att modellen är kapabel att korrekt tillskriva korrumperade värden.
Dereszynski och Dietterich REF föreslog en automatiserad datakvalitetskontroll i realtid som använde datatidsmässiga och rumsliga korrelationer för att identifiera defekta sensorobservationer från giltiga observationer.
65,809
Spatiotemporal Models for Data-Anomaly Detection in Dynamic Environmental Monitoring Campaigns
{'venue': 'TOSN', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,123
sociala robotar, en särskild typ av robotik avsedd för social interaktion med människor, skulle kunna spela en viktig roll när det gäller de äldres hälsa och psykiska välbefinnande. Mål Hjälpande sociala robotar tros vara användbara inom äldrevården av två skäl, ett funktionellt och ett affektivt. Sådana robotar utvecklas för att fungera som ett gränssnitt för äldre med digital teknik, och för att bidra till att öka livskvaliteten för äldre genom att tillhandahålla kamratskap, respektive. Det finns en växande uppmärksamhet för dessa apparater i litteraturen. Men det har ännu inte gjorts någon omfattande granskning för att undersöka hur effektiva sådana robotar är när det gäller äldreomsorg. Därför har vi systematiskt granskat och analyserat befintlig litteratur om hjälprobotarnas effekter på äldreomsorgen. Vi fokuserade särskilt på sällskapsfunktionen. Data Källor En systematisk sökning av MEDLINE, CINAHL, Psy-cINFO, The Cochrane Library databaser, IEEE, ACM bibliotek och slutligen Google Scholar utfördes för register fram till december 2007 för att identifiera artiklar av alla studier med faktiska ämnen som syftar till att bedöma effekterna av hjälpmedel sociala robotar på äldre. Denna sökning avslutades med information från personlig expertis, kontakter och rapporter. Studieurval och dataextraktion Eftersom inga randomiserade kontrollerade studier (RCT) har hittats inom detta forskningsområde, inkluderades alla studier som rapporterade effekter av hjälprobotik hos äldre populationer. Information om studiedesign, interventioner, kontroller och resultat togs fram för varje artikel. I medicinska tidskrifter hittades bara ett fåtal artiklar, medan omkring 50 publikationer återfanns i litteraturen om IKT och robotik. Datasyntes De identifierade studierna publicerades alla efter år 2000 och visade hur nytt detta forskningsområde är. De flesta av dessa publikationer innehåller resultat från studier som rapporterar positiva effekter av sociala hjälprobotar på hälsa och psykiskt välbefinnande hos äldre. Fasta bevis som tyder på att dessa effekter verkligen kan tillskrivas den faktiska hjälpande sociala roboten, dess beteende och dess funktionalitet är knapp. Slutsatser Det finns vissa kvalitativa bevis samt begränsade kvantitativa bevis för de positiva effekterna av sociala hjälprobotar med avseende på äldre. Forskningen är dock inte tillräckligt robust för att fastställa detta. Förvirringsvariabler kan ofta inte uteslutas. Detta beror delvis på den valda forskningsdesignen, men också på att det är oklart vilken forskningsmetodik som är lämplig för att undersöka sådana effekter. Därför behövs det mer arbete med metoder och robusta, storskaliga studier för att fastställa effekterna av dessa anordningar. Hjälpande sociala robotar inom äldreomsorgen: en översikt
Socialt hjälpsamma robotar för äldreomsorg har fått ökad uppmärksamhet inom litteraturen REF.
32,222,651
Assistive social robots in elderly care: a review
{'venue': None, 'journal': 'Gerontechnology', 'mag_field_of_study': ['Medicine']}
82,124
Abstract-Med den explosiva tillväxten av mobil dataefterfrågan, har det funnits ett ökat intresse för att distribuera små celler av högre frekvensband som ligger bakom det konventionella homogena makrocellsnätet, som vanligtvis kallas heterogena cellulära nätverk, för att avsevärt öka den totala nätkapaciteten. Med stora mängder spektrum tillgängligt i millimetervågen (mmWave) bandet, små celler vid mmWave frekvenser kan ge multi-gigabit åtkomst datahastigheter, medan den trådlösa backhaul i mmWave bandet växer fram som en kostnadseffektiv lösning för att ge hög backhaul kapacitet att ansluta åtkomstpunkter (AP) för de små cellerna. För att det mobila nätet ska fungera optimalt är det nödvändigt att gemensamt utforma radioaccess- och backhaulnäten. Samtidigt bör direkta överföringar mellan anordningar också övervägas för att förbättra systemets prestanda och förbättra användarupplevelsen. I detta dokument föreslår vi ett gemensamt schema för överföring av radioåtkomst och backhaul för små celler i mmWave-bandet, kallat D2DMAC, där ett urvalskriterium är utformat för att möjliggöra enhets-till-enhet-överföringar för prestandaförbättring. I D2DMAC föreslås en samtidig schemaläggningsalgoritm för överföring för att fullt ut utnyttja rumslig återanvändning i mmWave-nätverk. Genom omfattande simuleringar under olika trafikmönster och användarinstallationer, visar vi D2DMAC uppnå nästan optimala prestanda i vissa fall, och överträffar andra protokoll betydligt när det gäller fördröjning och genomströmning. Dessutom analyserar vi också hur valet av väg påverkar prestandaförbättringen av D2DMAC under olika valda parametrar.
Niu m.fl. REF utformade gemensamt schemaläggningsproblemet för radioåtkomst och backhaul för små celler i mm-vågbandet.
10,437,134
Exploiting Device-to-Device Communications in Joint Scheduling of Access and Backhaul for mmWave Small Cells
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science']}
82,125
Vi överväger automatiskt erkännande av mänskliga åtgärder i övervakningsvideor. De flesta nuvarande metoder bygger klassificeringar baserade på komplexa handgjorda funktioner som beräknas från de råa indata. Konvolutionella neurala nätverk (CNN) är en typ av djup modell som kan agera direkt på råa ingångar. Sådana modeller är dock för närvarande begränsade till hantering av 2D-ingångar. I detta dokument utvecklar vi en ny 3D CNN-modell för åtgärdsigenkänning. Denna modell extraherar funktioner från både rumsliga och tidsmässiga dimensioner genom att utföra 3D-konvolutioner, vilket fångar rörelseinformationen kodad i flera angränsande ramar. Den utvecklade modellen genererar flera kanaler av information från inmatningsramarna, och den slutliga funktionen representation kombinerar information från alla kanaler. För att ytterligare öka prestandan föreslår vi att resultaten regleras med hög nivå funktioner och kombinerar förutsägelser av en mängd olika modeller. Vi tillämpar de utvecklade modellerna för att känna igen mänskliga åtgärder i den verkliga miljön av flygplatsövervakningsvideor, och de uppnår överlägsen prestanda i jämförelse med baslinjemetoder.
De första konvolutionella neurala nätverk (CNN) föreslås för åtgärdsigenkänning använt 3D-konvolutioner för att fånga spatio-temporala funktioner REF.
1,923,924
3D Convolutional Neural Networks for Human Action Recognition
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
82,126
I detta papper studerar vi flera klasser av stokastiska optimeringsalgoritmer berikade med tung boll momentum. Bland de metoder som studerats är: stokastisk lutning nedstigning, stokastisk Newton, stokastisk proximal punkt och stokastisk dubbel subrymd uppstigning. Detta är första gången momentumvarianter av flera av dessa metoder studeras. Vi väljer att utföra vår analys i en miljö där alla ovanstående metoder är likvärdiga. Vi bevisar globala icke-asymptotiska linjära konvergensnivåer för alla metoder och olika mått på framgång, inklusive primära funktionsvärden, primära iterater (i L2), och dubbla funktionsvärden. Vi visar också att de primära iteraterna konvergerar med en accelererad linjär hastighet i L1 betydelse. Detta är första gången en linjär hastighet visas för stokastisk tung boll metod (dvs stokastisk lutning nedstigning metod med momentum). Under något svagare förhållanden fastställer vi en sublinjär konvergensgrad för Cesaros genomsnitt av primära iterater. Dessutom föreslår vi ett nytt koncept, som vi kallar stokastiskt momentum, som syftar till att minska kostnaderna för att genomföra momentumet. Vi bevisar linjär konvergens av flera stokastiska metoder med stokastisk momentum, och visar att i vissa glesa datasystem och för tillräckligt små momentumparametrar, dessa metoder har bättre övergripande komplexitet än metoder med deterministisk momentum. Slutligen utför vi omfattande numeriska tester på artificiella och verkliga datauppsättningar, inklusive data från genomsnittliga konsensusproblem.
Loizou m.fl. har undersökt konvergensanalys av flera klasser av stokastisk optimeringsalgoritm med momentum i en förenklad miljö med kvadratiska mål och visar att under specifika gleshet förhållanden, dessa metoder har bättre övergripande komplexitet än deterministiska metoder med momentum REF.
4,442,618
Momentum and Stochastic Momentum for Stochastic Gradient, Newton, Proximal Point and Subspace Descent Methods
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,127
Topologin av sociala nätverk kan förstås som inneboende dynamisk, med kanter som har en tydlig position i tiden. De flesta karakteriseringar av dynamiska nätverk diskretisera tiden genom att omvandla temporal information till en sekvens av nätverk "snapshots" för ytterligare analys. Här studerar vi en höguppklarad datauppsättning av ett dynamiskt närhetsnätverk på 66 individer. Vi visar att topologin i detta nätverk utvecklas över en mycket bred fördelning av tidsskalor, att dess beteende kännetecknas av starka periodiciteter drivs av externa kalendercykler, och att omvandlingen av inneboende kontinuerliga tidsdata till en sekvens av ögonblicksbilder kan producera mycket partiska uppskattningar av nätverksstruktur. Vi föreslår att dynamiska sociala nätverk uppvisar en naturlig tidsskala, och att den bästa omvandlingen av sådana dynamiska data till en diskret sekvens av nätverk görs i denna naturliga takt. Komplexa system av samverkande komponenter representeras nu ofta som ett nätverk, dvs. n noder eller hörn sammanfogade parvis med m länkar eller kanter. Att karakterisera dessa näts topologiska mönster kan ofta ge betydande insikter i det ursprungliga systemets struktur och funktion [1–3], och nätverk från många olika områden, inklusive sociala [4–6], tekniska [7] [8] [9] och biologiska [10] [11] [12] system, har studerats på detta sätt. Av denna typ av nätverksanalys har det visats att många verkliga nätverk uppvisar liknande egenskaper. Till exempel uppvisar de flesta verkliga nätverk en mycket heterogen gradfördelning och korta topologiska avstånd mellan godtyckliga hörn. Sociala nätverk skiljer sig från många andra typer av nätverk [13], till exempel genom att ha en större än förväntat densitet av korta slingor (vanligtvis trianglar - den så kallade "kluster koefficient" även om beteendet verkar generalisera till korta slingor av alla längder). Dessutom uppvisar sociala nätverk ett mönster i konnektivitet på hela nätverksnivå som ofta kallas "gemenskapsstruktur", där stora och relativt täta subgrafer själva är glest sammankopplade [14], samt diverse blandning på olika nodattribut [15]. Mycket av vår förståelse av de storskaliga strukturmönstren i sociala nätverk har kommit från studier av statiska topologier - en idealisering som naturligt utelämnar alla dynamiska eller tidsmässiga karaktärer hos de sociala processer som ligger till grund för dessa nätverk. För vissa vetenskapliga frågor kan en statisk topologi vara tillräcklig. För frågor om dynamik är det dock troligt att den tidsmässiga variationen av kanterna i sig är viktig. Till exempel, i spridningen av en epidemi, ordningen av inter- * Publicerad i förfarandet vid DIMACS Workshop om beräkningsmetoder för dynamiska interaktionsnätverk (Piscataway), 2007. åtgärder kan ha en betydande effekt på vilka individer blir infekterade, och i slutändan storleken på ett epidemiskt utbrott, t.ex., om två individer A och B interagerar innan A smittas, men inte efter, då B har ingen risk för infektion, en dynamik som är svår att fånga med statiska topologier (Fig. 1).................................................................. Tyvärr är data om tidsbunden konnektivitet ofta svåra att få tag på för verkliga sociala system. Den traditionella metoden för att studera nätverksdynamik i sociologi (se t.ex. [16] och referens i den) tenderar att vara starkt beroende av interaktionsdata som självrapporteras av studiedeltagare, som uppvisar betydande fördomar och buller [17]. Flera nyligen genomförda studier inom fysik och datavetenskap har utnyttjat webbaserade eller andra indirekta källor till dynamiska sociala nätverksdata [18] [19] [20] [21] [23]. I allmänhet omvandlar empiriska studier tillgängliga tidsdata till en kort sekvens av icke-överlappande nätverk "snapshots", (kallas "paneldata" i sociologiska litteraturen [24] ), var och en av en längre tid som är större än den naturliga tidsskalan för topologisk variation. Denna sekvens kan sedan vara ytterligare
När det gäller Bluetooth, Clauset et al. REF analyserade ett BT-nätverk av en population som registrerats under nio månader och visade att mängder som periodicitet kan härledas.
16,174,393
Persistence and periodicity in a dynamic proximity network
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Physics', 'Computer Science']}
82,128
Med tanke på två på varandra följande ramar syftar interpolering till att generera mellanliggande ramar för att bilda både rumsligt och tidsmässigt sammanhängande videosekvenser. Medan de flesta befintliga metoder fokuserar på en ram interpolation, föreslår vi en end-to-end convolutional neural nätverk för variabel-längd multi-frame video interpolation, där rörelsetolkning och ocklusion resonemang är gemensamt modellerade. Vi börjar med att beräkna det dubbelriktade optiska flödet mellan ingångsavbildningarna med hjälp av en U-Net-arkitektur. Dessa flöden kombineras sedan linjärt vid varje steg för att approximera de mellanliggande dubbelriktade optiska flödena. Dessa ungefärliga flöden fungerar dock bara bra i lokalt smidiga regioner och producerar artefakter kring rörelsegränser. För att ta itu med denna brist använder vi en annan UNet för att förfina det ungefärliga flödet och även förutsäga mjuka siktkartor. Slutligen är de två ingångsbilderna förvrängda och linjärt sammansmälta för att bilda varje mellanliggande ram. Genom att applicera siktkartorna på de förvrängda bilderna före fusion, utesluter vi bidraget från ockluded pixlar till den interpolerade mellanliggande ramen för att undvika artefakter. Eftersom ingen av våra lärda nätverksparametrar är tidsberoende, kan vår strategi producera så många mellanliggande ramar som behövs. Vi använder 1.132 videoklipp med 240-fps, som innehåller 300K individuella videoramar, för att träna vårt nätverk. Experimentella resultat på flera datauppsättningar, som förutsäger olika antal interpolerade ramar, visar att vårt arbetssätt fungerar konsekvent bättre än befintliga metoder.
Jiang m.fl. föreslagna Super slomo REF, en ram arbete som använder en U-Net arkitektur för att förhandsberäkna dubbelriktade optiska flöden och sammanfoga dem för att generera mellanliggande dubbelriktade optiska flöden vid målet tidsstämplar.
10,817,557
Super SloMo: High Quality Estimation of Multiple Intermediate Frames for Video Interpolation
{'venue': 'CVPR 2018', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,129
Objektdetektorer är vanligtvis utbildade på en stor uppsättning stillbilder annoterade av avgränsande-boxar. Detta dokument introducerar ett tillvägagångssätt för att lära objekt detektorer från realworld webbvideor som endast är kända för att innehålla objekt av en målklass. Vi föreslår en helautomatisk pipeline som lokaliserar objekt i en uppsättning videor av klassen och lär sig en detektor för det. Tillvägagångssättet extraherar kandidat spatio-temporala rör baserat på rörelsesegmentering och väljer sedan ett rör per video gemensamt över alla videor. Jämfört med den senaste tekniken testar vi vår detektor på stillbilder, dvs. Pascal VOC 2007. Vi observerar att ramar som utvunnits ur webbvideor kan skilja sig avsevärt i fråga om kvalitet till stillbilder tagna av en bra kamera. Därför formulerar vi inlärningen från videor som en domänanpassningsuppgift. Vi visar att träning från en kombination av svagt kommenterade videor och fullt kommenterade stillbilder med domänanpassning förbättrar prestandan hos en detektor tränad enbart från stillbilder.
Prest m.fl. REF föreslog en helautomatisk metod för att lära sig en klassspecifik objektdetektor från svagt kommenterade verkliga videor.
7,952,817
Learning object class detectors from weakly annotated video
{'venue': '2012 IEEE Conference on Computer Vision and Pattern Recognition', 'journal': '2012 IEEE Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
82,130
I detta dokument studerar vi multibeam satellitsäker kommunikation genom fysiska (PHY) lager säkerhetstekniker, d.v.s. gemensam effektstyrning och strålformning. Genom att först anta att Channel State Information (CSI) är tillgänglig och att strålformningsvikterna är fasta undersöks en ny säker satellitsystemdesign för att minimera sändningskraften med individuella sekretesskrav. En iterativ algoritm föreslås för att få en optimerad effektallokeringsstrategi. Dessutom erhålls suboptimala strålformningsvikter genom att helt eliminera co-kanalinterferensen och upphäva tjuvlyssnarens signal samtidigt. För att få fram gemensamt optimerad effektallokering och strålformningsstrategi i vissa praktiska fall, t.ex. med vissa skattningsfel av CSI, utvärderar vi ytterligare effekten av tjuvlyssnarens CSI på den säkra konstruktionen av satellitsystemet med flera strålar. Konvergensen i den iterativa algoritmen bevisas under berättigade antaganden. Prestandan utvärderas genom att man tar hänsyn till inverkan av antalet antennelement, antalet balkar, kravet på individuell sekretess och CSI. Den föreslagna nya, säkra konstruktionen av satellitbaserade flerbalkssystem kan uppnå en optimerad effektallokering för att säkerställa minimikravet på individuell sekretess. Resultaten visar att systemet med gemensam strålformning är gynnsammare än systemet med fast strålformning, särskilt när det gäller ett större antal satellitantennelement och krav på högre sekretessgrad. Slutligen jämför vi resultaten under det nuvarande satellitluftgränssnittet i DVB-S2 och resultaten under Gaussiska ingångar. Multibeam satellit, strålformning, fysisk lagersäkerhet och effektallokering.
I det seminala arbetet av REF, Lei et al. har studerat den säkerhetsorienterade strålformningen och effektstyrningen i en satellitkommunikation med flera strålar för att minimera sändningseffekten, samtidigt som den individuella sekretessgraden har bibehållits.
16,101,238
Secure Satellite Communication Systems Design with Individual Secrecy Rate Constraints
{'venue': 'IEEE Transactions on Information Forensics and Security', 'journal': 'IEEE Transactions on Information Forensics and Security', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,131
Det är vanligt att en enhet nämner kan innehålla andra omnämnanden rekursivt. I detta dokument introduceras en skalbar övergångsbaserad metod för att modellera den inhägnade strukturen av omnämnanden. Vi kartlägger först en mening med inhägnade omnämnanden till en utsedd skog där varje omnämnande motsvarar en del av skogen. Vårt skiftreducerade system lär sig sedan att bygga skogens struktur på ett nedifrån-och-upp-sätt genom en åtgärdssekvens vars maximala längd garanterat är tre gånger av meningens längd. Baserat på Stack-LSTM som används för att effektivt representera systemets tillstånd i ett kontinuerligt utrymme, är vårt system ytterligare integrerat med en karaktärsbaserad komponent för att fånga bokstäver nivå mönster. Vår modell uppnår toppmoderna resultat på ACE-datauppsättningar, vilket visar dess effektivitet när det gäller att upptäcka inhägnade omnämnanden.
På grundval av samma idé föreslog Ref ett skalbart övergångsbaserat tillvägagångssätt för att bygga en valmansskog (en samling valmansträd).
52,916,493
A Neural Transition-based Model for Nested Mention Recognition
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,132
Abstract-Regression testning är en dyr process som används för att validera modifierad programvara. Testfallsprioriteringsteknik förbättrar kostnadseffektiviteten av regressionstester genom att beställa testfall så att de som är viktigare körs tidigare i testprocessen. Många prioriteringstekniker har föreslagits och bevis visar att de kan vara till nytta. Det har dock föreslagits att de tidsbegränsningar som kan införas på regressionstestning av olika mjukvaruutvecklingsprocesser starkt kan påverka beteendet hos prioriteringstekniker. Om detta är korrekt kan en bättre förståelse av effekterna av tidsbegränsningar leda till förbättrad prioriteringsteknik och förbättrade underhålls- och testprocesser. Vi genomförde därför en rad experiment för att bedöma effekterna av tidsbegränsningar på kostnader och fördelar med prioriteringsteknik. Vårt första experiment manipulerar tidsbegränsningar och visar att tidsbegränsningar spelar en viktig roll för att bestämma både kostnadseffektiviteten av prioritering och den relativa kostnads-nytto-avvägningen mellan tekniker. Vårt andra experiment kopierar det första experimentet, kontrollerar för flera hot mot giltigheten inklusive antal fel närvarande, och visar att resultaten generaliseras till detta bredare sammanhang. Vårt tredje experiment manipulerar antalet fel som finns i program för att undersöka effekterna av felnivåer på prioriteringen och visar att felnivån påverkar den relativa kostnadseffektiviteten av prioriteringstekniker. Sammantaget har dessa resultat flera konsekvenser för testingenjörer som vill kostnadseffektivt regressionstesta sina programvarusystem. Dessa inkluderar förslag om när och när man inte ska prioritera, vilka tekniker att använda, och hur skillnader i testprocesser kan relatera till prioritering kostnadseffektivitet.
I REF har författarna genomfört en rad kontrollerade experiment för att utvärdera testfallsprioriteringsmetoder baserade på tidsbegränsningar och feldetekteringsfrekvens.
15,107,630
The Effects of Time Constraints on Test Case Prioritization: A Series of Controlled Experiments
{'venue': 'IEEE Transactions on Software Engineering', 'journal': 'IEEE Transactions on Software Engineering', 'mag_field_of_study': ['Computer Science']}
82,133
Abstract-Med uppkomsten av Docker, blir det lättare att inkapsla applikationer och deras beroenden i lätta Linux behållare och göra dem tillgängliga för världen genom att distribuera dem i molnet. Jämfört med hypervisorbaserade virtualiseringsstrategier ger användningen av behållare snabbare starttider och minskar förbrukningen av datorresurser. Docker saknar dock verktyg för driftsättningsverifiering för behållare vid konstruktionstidpunkten. För närvarande är det enda sättet att vara säker på att de designade behållarna kommer att köra väl att testa dem i ett körsystem. Om fel uppstår görs en korrigering, men denna operation kan upprepas flera gånger innan utplaceringen blir operativ. Docker tillhandahåller ingen lösning för att öka eller minska storleken på containerresurserna i efterfrågan. Förutom utplaceringen av containrar saknar Docker synkronisering mellan de designade containrarna och de utplacerade containrarna. Dessutom sker containerhanteringen med Docker på låg nivå och kräver därför att användarna fokuserar på systemproblem på låg nivå. I detta dokument fokuserar vi på dessa frågor som rör hanteringen av Docker containrar. I synnerhet föreslår vi ett tillvägagångssätt för modellering av Docker-containrar. Vi tillhandahåller verktyg för att säkerställa driftsättning och hantering av Docker containrar. Vi illustrerar vårt förslag med hjälp av en ansökan om händelsebehandling och visar hur vår lösning ger en betydligt bättre kompromiss mellan prestanda- och utvecklingskostnader än den grundläggande Docker containerlösningen.
I REF föreslogs ett verktyg för att säkerställa driftskompatibilitet och hantering av Docker-containrar.
17,464,333
Model-Driven Management of Docker Containers
{'venue': '2016 IEEE 9th International Conference on Cloud Computing (CLOUD)', 'journal': '2016 IEEE 9th International Conference on Cloud Computing (CLOUD)', 'mag_field_of_study': ['Computer Science']}
82,134
MapReduce har använts i stor skala för dataanalys i molnet. Systemet är väl känt för sin elastiska skalbarhet och finkorniga feltolerans även om dess prestanda har noterats vara suboptimal i databassammanhang. Enligt en nyligen genomförd studie [19] är Hadoop, en öppen källkodsimplementering av MapReduce, långsammare än två toppmoderna parallella databassystem när det gäller att utföra en mängd olika analytiska uppgifter med en faktor 3.1 till 6.5. MapReduce kan uppnå bättre prestanda med tilldelning av mer beräkna noder från molnet för att påskynda beräkning; dock är detta tillvägagångssätt att "hyra fler noder" inte kostnadseffektivt i en pay-as-you-go miljö. Användarna vill ha ett ekonomiskt elastiskt skalbart databehandlingssystem och är därför intresserade av om MapReduce kan erbjuda både elastisk skalbarhet och effektivitet. I detta dokument genomför vi en prestandastudie av MapReduce (Hadoop) på en 100-node kluster av Amazon EC2 med olika nivåer av parallellism. Vi identifierar fem designfaktorer som påverkar Hadoops prestanda och undersöker alternativa men kända metoder för varje faktor. Vi visar att genom att noggrant justera dessa faktorer kan Hadoops totala prestanda förbättras med en faktor på 2,5 till 3,5 för samma referensvärde som användes i [19], och är därmed mer jämförbar med den för parallella databassystem. Våra resultat visar att det därför är möjligt att bygga ett molndatasystem som är både elastiskt skalbart och effektivt.
Författare som Jiang REF, utför en djupstudie av faktorer som påverkar resultatet av MapReduce program.
186,987
The Performance of MapReduce: An In-depth Study
{'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']}
82,135
Sentimentanalys eller åsiktsutvinning är en av de viktigaste uppgifterna för NLP (Natural Language Processing). Sentimentanalys har fått mycket uppmärksamhet under de senaste åren. I detta dokument strävar vi efter att ta itu med problemet med kategorisering av känslornas polaritet, som är ett av de grundläggande problemen med analys av känslor. En allmän process för känslopolaritet kategorisering föreslås med detaljerade processbeskrivningar. Uppgifter som används i denna studie är online produktrecensioner som samlats in från Amazon.com. Experiment för både kategorisering på straffnivå och kategorisering på granskningsnivå utförs med lovande resultat. Äntligen ger vi också insikt i vårt framtida arbete med känsloanalys.
REF fokuserar på problemet med kategorisering av känslopolaritet.
16,177,937
Sentiment analysis using product review data
{'venue': 'Journal of Big Data', 'journal': 'Journal of Big Data', 'mag_field_of_study': ['Computer Science']}
82,136
I en multiprogrammerad datormiljö uppvisar trådar av körning olika körtidsegenskaper och hårdvaruresurskrav. Inte bara skiljer sig beteendet hos distinkta trådar, men varje tråd kan också presentera mångfald i dess prestanda och resursanvändning över tiden. En heterogen chip multiprocessor (CMP) arkitektur består av processorkärnor och cacher av varierande storlek och komplexitet. Tidigare arbete har visat att heterogena CMP kan tillgodose behoven i en multiprogrammerad datormiljö bättre än ett homogent CMP-system. I själva verket tillgodoser användningen av en kombination av kärnor med olika cache- och instruktionsutgivningsbredder bättre gängor med olika beräkningskrav. En central fråga i utformningen och användningen av heterogena system är att bestämma en tilldelning av uppgifter till processorer som bättre utnyttjar hårdvaruresurserna för att förbättra prestandan. I detta dokument hävdar vi att fördelarna med heterogena CMP stöds av användningen av en dynamisk tilldelningspolicy, dvs. en runtime mekanism som observerar beteendet hos de löpande trådarna och utnyttjar trådmigration mellan kärnorna. Vi validerar vår analys genom simulering. Speciellt, vår modell antar en kombination av Alpha EV5 och Alpha EV6 processorer och av heltal och flyttal program från SPEC2000 riktmärkessvit. Vi visar att en dynamisk uppdrag kan överträffa en statisk en med 20% till 40% i genomsnitt och med så mycket som 80% i extrema fall, beroende på graden av multitrådning simulerad.
Eftersom den thread-core tilldelningspolicyn spelar en avgörande roll för att bestämma prestanda, Becchi et al. hävdar att dynamiska trådtilldelningspolicyer bättre utnyttjar fördelarna med en heterogen CMP REF.
7,912,972
Dynamic thread assignment on heterogeneous multiprocessor architectures
{'venue': "CF '06", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,137
Vi presenterar en ny läsförståelse dataset, SQuAD, bestående av 100.000 + frågor från crowdworkers på en uppsättning Wikipedia artiklar, där svaret på varje fråga är ett segment av text från motsvarande läsavsnitt. Vi analyserar datasetet på både manuella och automatiska sätt för att förstå de typer av resonemang som krävs för att svara på frågorna, lutar kraftigt på beroende och valkretsträd. Vi byggde en stark logistisk regressionsmodell, som uppnår en F1-poäng på 51,0 %, en betydande förbättring jämfört med en enkel baslinje (20 %). Människans prestationsförmåga (86,8 %) är dock mycket högre, vilket tyder på att datasetet utgör ett bra problem för framtida forskning.
REF släppt Stanford Question Svar Dataset (SQuAD), där frågan genereras av människan enligt wikipedia artiklar och svaret är en sträcka av passage.
11,816,014
SQuAD: 100,000+ Questions for Machine Comprehension of Text
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,138
Ett antal färska studier har visat att ett Deep Convolutional Neural Network (DCNN) som är förinställt på en stor datauppsättning kan antas som en universell bilddeskriptor, och att detta leder till imponerande peiformance vid en rad olika bildklassificeringsuppgifter. De flesta av dessa studier, om inte alla, antar aktiveringar av det fullt anslutna skiktet av en DCNN som bild eller region representation och det anses att konvolutionella skikt aktiveringar är mindre diskriminerande. I detta dokument förespråkas dock att aktiveringar av de konvolutionella skikten, om de används på lämpligt sätt, utgör en pow erful image representation. Detta uppnås genom att man antar en ny teknik som föreslås i detta dokument och som kallas sammanslagning av tvärkonvolutionella skikt. Mer specifikt, det extraherar subarrays av funktionskartor av ett konvolutionslager som lo cal funktioner, och poolar de extraherade funktionerna med guid essencen av särdragskartorna i det på varandra följande convolutional skiktet. Jämfört med befintliga metoder som tillämpar DCNN i liknande lokala funktioner, den föreslagna metoden undviker indata bild stil missmatchning problem som vanligtvis uppstår när tillämpa fullt anslutna lager aktiveringar för att beskriva lokala regioner. Dessutom är den föreslagna metoden lättare att genomföra eftersom den är kodboksfri och inte har några inställningsparametrar. Genom att tillämpa vår metod på fyra populära visuella klassificeringsuppgifter, visas det att den föreslagna metoden kan uppnå jämförbara eller i vissa fall betydligt bättre prestanda än befintliga fullt anslutna lagerbaserade bildrepresentationer.
Till exempel Liu et al. REF tog funktionskartorna som indikatorkartor över delar och aggregerade de lokala funktionerna för varje surrogatdel som bildnivårepresentation.
1,270,762
The treasure beneath convolutional layers: Cross-convolutional-layer pooling for image classification
{'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
82,139
Fog computing växer fram som en kraftfull och populär dator paradigm för att utföra IoT (Internet of Things) applikationer, vilket är en förlängning till molndata paradigm för att göra det möjligt att köra IoT-program i nätet av kanten. IoT-tillämpningarna kan välja dim- eller molndatanoder för att svara på resursbehoven, och belastningsbalansering är en av de viktigaste faktorerna för att uppnå resurseffektivitet och undvika flaskhalsar, överbelastning och låg belastning. Det är dock fortfarande en utmaning att inse belastningsbalansen för datornoder i dimman miljön under genomförandet av IoT-program. Mot bakgrund av denna utmaning föreslås i detta dokument en dynamisk resursfördelningsmetod, DRAM, för lastbalansering i dimmiljö. Tekniskt sett presenteras först ett systemramverk för dimdata och belastningsbalansanalysen för olika typer av datornoder. Därefter är en motsvarande resursfördelningsmetod i dimman utformad genom statisk resursallokering och dynamisk servicemigrering för att uppnå belastningsbalansen för dimdatasystemen. Experimentell utvärdering och jämförelseanalys genomförs för att validera DRAM-minnets effektivitet och effektivitet.
I REF, Xu et al. Föreslagen metod för dynamisk resursfördelning (DRAM) för att balansera belastningen av datornoder i moln- och dimmiljö.
19,169,452
Dynamic Resource Allocation for Load Balancing in Fog Environment
{'venue': 'Wireless Communications and Mobile Computing', 'journal': 'Wireless Communications and Mobile Computing', 'mag_field_of_study': ['Computer Science']}
82,140
- Vad är det med dig? I detta dokument presenterar vi en enkel men förvånansvärt kraftfull strategi för oövervakad inlärning av CNN. Speciellt använder vi hundratusentals omärkta videor från webben för att lära oss visuella representationer. Vår nyckelidé är att visuell spårning ger övervakning. Det vill säga, två patchar anslutna av ett spår bör ha liknande visuell representation i djup funktionsutrymme eftersom de förmodligen tillhör samma objekt eller objektdel. Vi designar ett Siamese-triplet-nätverk med en rankningsförlustfunktion för att träna denna CNN-representation. Utan att använda en enda bild från ImageNet, bara med hjälp av 100K omärkta videor och VOC 2012 dataset, tränar vi en ensemble av oövervakade nätverk som uppnår 52% mAP (ingen begränsande låda regression). Denna prestanda kommer lockande nära sin ImageNet-övervakade motsvarighet, en ensemble som uppnår en mAP på 54,4%. Vi visar också att vårt oövervakade nätverk kan prestera konkurrenskraftigt i andra uppgifter såsom ytnormal uppskattning.
Wang och Gupta föreslår ett Siamese-triplet nätverk med en ranking förlust att träna en 2DCNN med patchar från en videosekvens REF.
5,276,358
Unsupervised Learning of Visual Representations Using Videos
{'venue': '2015 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2015 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
82,141
Stor efterfrågan på beräkningsresurser hindrar i hög grad utbyggnaden av storskaliga Deep Neural Networks (DNN) i resursbegränsade enheter. I detta arbete föreslår vi en strukturerad sparsity Learning (SSL) metod för att reglera strukturer (dvs. filter, kanaler, filter former, och lagerdjup) av DNNs. SSL kan: (1) lära sig en kompakt struktur från en större DNN för att minska beräkningskostnaderna; (2) få en hårdvaruvänlig strukturerad sparhet av DNN för att effektivt påskynda DNN: s utvärdering. Experimentella resultat visar att SSL uppnår i genomsnitt 5,1× och 3,1× speedups av convolutional lagerberäkning av AlexNet mot CPU respektive GPU, med off-the-shelf bibliotek. Dessa uppfarter är ungefär dubbelt så snabba som de icke-strukturerade glesheterna; (3) regularisera DNN-strukturen för att förbättra klassificeringsnoggrannheten. Resultaten visar att för CIFAR-10 kan legalisering på lagerdjup minska 20 lager av ett Deep Residual Network (ResNet) till 18 lager samtidigt som noggrannheten förbättras från 91,25 % till 92,60 %, vilket fortfarande är något högre än för original ResNet med 32 lager. För AlexNet minskar strukturregleringen genom SSL också felet med 1%. Vår källkod finns på https://github.com/wenwei202/caffe/tree/scnn
Strukturerat sparskapslärande (SSL) REF begränsar strukturen hos de lärda filtren för att minska modellens övergripande komplexitet.
2,056,019
Learning Structured Sparsity in Deep Neural Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,142
Abstract-Cloud computing är en framväxande teknik och det tillåter användare att betala som du behöver och har den höga prestandan. Cloud computing är också ett heterogent system och innehåller stora mängder applikationsdata. I processen för att schemalägga vissa intensiva data eller datorisering en intensiv ansökan, är det erkänt att optimera överföring och behandling tid är avgörande för ett program. I detta papper för att minimera kostnaden för bearbetningen formulerar vi en modell för uppgift schemaläggning och föreslår en partikel svärm optimering (PSO) algoritm som bygger på små position värde regel. Genom att jämföra PSO-algoritmen med PSO-algoritmen inbäddad i crossover och mutation och i den lokala forskningen visar experimentresultaten att PSO-algoritmen inte bara konvergerar snabbare utan också går snabbare än de två andra algoritmerna i stor skala. Experimentresultaten visar att PSO-algoritmen är mer lämplig för datormoln.
Guo REF föreslog också en flermålig schemaläggningsmodell för uppgifter för att minimera tiden för utförandet av uppgifter och kostnaderna med hjälp av PSO-algoritmen.
7,877,503
Task Scheduling Optimization in Cloud Computing Based on Heuristic Algorithm
{'venue': 'J. Networks', 'journal': 'J. Networks', 'mag_field_of_study': ['Computer Science']}
82,143
Nätverkade data, hämtade från sociala medier, webbsidor och bibliografiska databaser, kan innehålla enheter av flera klasser, sammankopplade genom olika typer av länkar. I detta dokument fokuserar vi på problemet med att utföra multi-etikett klassificering på nätverksdata, där instanserna i nätverket kan tilldelas flera etiketter. I motsats till traditionella klassificeringsmetoder som enbart innehåller innehåll lyckas relationslärande förbättra klassificeringsprestandan genom att förbättra märkningens korrelation mellan länkade instanser. Fall i ett nätverk kan dock kopplas samman av olika orsaker, vilket innebär att behandlingen av alla länkar på ett homogent sätt kan begränsa relationsklassificeringarnas prestanda. I detta dokument föreslår vi en multi-märkt iterativ relations klassificerare som använder sociala kontextfunktioner (SCRN). Vår klassifikation innehåller en klassförökningsannolikhetsfördelning som erhålls från instansernas sociala funktioner, som i sin tur extraheras från nätverkets topologi. Denna klass-förökning sannolikhet fångar noden inneboende sannolikheten för att tillhöra varje klass, och fungerar som en tidigare vikt för varje klass när aggregera grannarnas klass etiketter i den kollektiva inferens förfarande. Experiment på flera verkliga dataset visar att vår föreslagna klassificering ökar klassificeringsprestandan jämfört med gemensamma riktmärken på nätverksanslutna flermärkta data.
SCRN REF är en multi-märkning iterative relationell granne klassificerare genom att överväga både nätverk topologi och sociala sammanhang funktioner.
13,319,314
Multi-label relational neighbor classification using social context features
{'venue': "KDD '13", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,144
W3C Semantic Sensor Network Incubator Group (SSN-XG), som är en av dess verksamheter, producerade en OWL 2 ontologi för att beskriva sensorer och observationer SSN ontology, som finns på http://purl.oclc.org/NET/ssnx/ssn. SSN ontologin kan beskriva sensorernas kapacitet, de mätprocesser som används och de resulterande observationerna, och kan anpassas till andra ontologier, t.ex. som beskriver observerade fenomen. I denna artikel beskrivs utvecklingen av SSN ontologin, ontologin och dess anpassning till DOLCE-UltraLite fundamental ontologi, och spridningen i nya forskningsprojekt och tillämpningar.
Denna SSN ontologi kan beskriva sensorer i termer av deras kapacitet, mätprocesser, observationer och driftsättningar REF 11].
433,321
The SSN Ontology of the W3C Semantic Sensor Network Incubator Group
{'venue': 'J. Web Semant.', 'journal': 'J. Web Semant.', 'mag_field_of_study': ['Computer Science']}
82,145
Relation extrahering är uppgiften att hitta semantiska relationer mellan enheter från text. De senaste metoderna för relationsextraktion bygger till största delen på statistisk inlärning, och därför måste alla ta itu med val av egenskaper, vilket i hög grad kan påverka klassificeringsprestandan. I detta dokument undersöker vi systematiskt ett stort utrymme för relationsextraktion och utvärderar effektiviteten hos olika subrymder. Vi presenterar en allmän definition av funktionsytor som bygger på en grafisk representation av relationsinstanser, och utforskar tre olika representationer av relationsinstanser och särdrag av olika komplexiteter inom denna ram. Våra experiment visar att användning av endast grundläggande enhetsfunktioner i allmänhet är tillräckligt för att uppnå toppmodern prestanda, medan överinklusion av komplexa funktioner kan skada prestandan. En kombination av funktioner med olika komplexitetsnivåer och olika meningsrepresentationer, tillsammans med uppgiftsorienterad beskärning, ger bästa prestanda.
Jiang och Zhai REF utvärderade också systematiskt effektiviteten hos olika subrymder med olika komplexitet och erhöll den bästa F-åtgärden på 71,5 för de sju relationstyperna av ACE RDC 2004 corpus.
17,069,935
A Systematic Exploration of the Feature Space for Relation Extraction
{'venue': 'Human Language Technologies 2007: The Conference of the North American Chapter of the Association for Computational Linguistics; Proceedings of the Main Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,146
Algoritm visualiseringsteknik (AV) illustrerar grafiskt hur algoritmer fungerar. Trots teknikens intuitiva dragningskraft har den inte lyckats ta sig an den traditionella utbildningen i datavetenskap. Vissa har tillskrivit detta misslyckande till de blandade resultaten av experimentella studier som utformats för att styrka AV-teknikens pedagogiska effektivitet. Dock, medan flera integrativa recensioner av AV-teknik har dykt upp, ingen har fokuserat specifikt på programvarans effektivitet genom att analysera denna kropp av experimentella studier som helhet. För att bättre förstå AV-teknikens effektivitet presenterar vi en systematisk meta-studie av 24 experimentella studier. Vi genomför två separata analyser: en analys av oberoende variabler, där vi knyter varje studie till en särskild vägledande inlärningsteori i ett försök att bestämma vilken vägledande teori som har haft den mest prediktiva framgången; och en analys av beroende variabler, som gör det möjligt för oss att bestämma vilka mättekniker som har varit mest känsliga för inlärningsfördelarna med AV-teknik. Vårt viktigaste resultat är att hur studenter använder AV-teknik har en större inverkan på effektiviteten än vad AV-tekniken visar dem. Baserat på våra resultat formulerar vi en agenda för framtida forskning om AV-effektivitet.
I REF utfördes en metastudie med 24 experimentella studier.
528,221
A Meta-Study of Algorithm Visualization Effectiveness
{'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,147
Tack vare informationsexplosion kan data för de objekt som är av intresse samlas in från allt fler källor. För samma objekt finns det dock vanligtvis konflikter mellan de insamlade uppgifterna från flera källor. För att ta itu med denna utmaning har upptäckten av sanningen, som integrerar bullrig information med flera källor genom att uppskatta tillförlitligheten hos varje källa, dykt upp som ett hett ämne. Flera metoder för sanningsupptäckt har föreslagits för olika scenarier, och de har framgångsrikt tillämpats inom olika tillämpningsområden. I den här undersökningen fokuserar vi på att ge en heltäckande översikt över sanningsupptäcktsmetoder, och sammanfatta dem från olika aspekter. Vi diskuterar också några framtida riktningar för forskning om sanningsupptäckter. Vi hoppas att denna undersökning kommer att främja en bättre förståelse av de nuvarande framstegen när det gäller sanningsupptäckt, och erbjuda några riktlinjer för hur man kan tillämpa dessa strategier inom tillämpningsområden.
Den senaste undersökningen REF ger en heltäckande översikt över metoder för upptäckt av sanningar och sammanfattar dem från olika aspekter, men de utför inga jämförande experiment för att visa metodernas olika prestanda.
9,060,471
A Survey on Truth Discovery
{'venue': 'SKDD', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,148
Device-to-device (D2D) kommunikation möjliggör direkt kommunikation mellan proximata enheter vilket förbättrar det totala spektrumutnyttjandet och avlastar trafiken från cellulära nätverk. Detta dokument utvecklar en ny rumslig modell för D2D-nätverk där enhetens placeringar är modellerade som en Poisson-klusterprocess. Med hjälp av denna modell studerar vi prestandan hos en typisk D2D-mottagare i fråga om täckningsannolikhet under två realistiska inställningar av innehållstillgänglighet: (i) innehåll av intresse för en typisk enhet är tillgängligt på en enhet som väljs slumpmässigt från samma kluster, som vi kallar enhetlig innehållstillgänglighet, och (ii) innehåll av intresse är tillgängligt på kth närmaste enhet från den typiska enheten inne i samma kluster, som vi kallar k-stängsta innehållstillgänglighet. Med hjälp av dessa täckningsannolikhetsresultat karakteriserar vi också områdets spektraleffektivitet (ASE) för hela nätverket för de två installationerna. Ett viktigt mellansteg i denna analys är härledningen av fördelningen av avstånd från en typisk enhet till både intra- och inter-cluster-enheter. Vår analys visar att ett optimalt antal D2D-sändare måste aktiveras samtidigt per kluster för att maximera ASE. Detta kan tolkas som den klassiska avvägningen mellan mer aggressiv frekvensåteranvändning och högre interferenskraft. Det optimala antalet samtidigt sändande enheter och den resulterande ökningen av ASE eftersom innehållet görs tillgängligt närmare mottagarna. Vår analys kvantifierar också den bästa och sämsta prestandan hos klustererade D2D-nätverk både vad gäller täckning och ASE. Device-to-device (D2D) kommunikation, kluster D2D nätverk, Poisson kluster process, Thomas kluster process, stokastisk geometri. M. Afshang är med Wireless@VT,
En rumslig modell för ett D2D-nätverk utvecklades i REF där MU-platserna modellerades som en Poisson-klusterprocess.
12,550,881
Modeling and Performance Analysis of Clustered Device-to-Device Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,149
Abstract-I energiskörd kommunikationssystem, en exogen laddningsprocess levererar energi som behövs för dataöverföring och den ankommande energin kan buffras i ett batteri före förbrukning. Vi bestämmer den informations-teoretiska kapaciteten hos den klassiska tillsatsen vit Gaussian brus (AWGN) kanal med en energi skörd sändare med en obegränsad storlek batteri. När energin anländer slumpmässigt och kan sparas i batteriet, måste kodord lyda kumulativa stokastiska energibegränsningar. Vi visar att kapaciteten hos AWGN-kanalen med sådana stokastiska kanalinmatningsbegränsningar är lika med kapaciteten med en genomsnittlig effektbegränsning som motsvarar den genomsnittliga laddningshastigheten. Vi tillhandahåller två system för kapacitetsuppnående: spar-och-överföring och bästa-insats-överföring. I spar-och-överföringssystemet samlar sändaren in energi i en sparfas av lämplig varaktighet som garanterar att det inte kommer att bli någon energibrist under överföringen av kodsymboler. I det bästa sändningsschemat, startar överföringen direkt utan en inledande sparperiod, och sändaren skickar en kodsymbol om det finns tillräckligt med energi i batteriet, och en noll symbol annars. Slutligen, vi anser ett system där den genomsnittliga laddningshastigheten är tid varierar i en större tid skala och härleda den optimala offline effektpolicy som maximerar den genomsnittliga genomströmningen, genom att använda majorization teori. Index Terms-Additive vit Gaussian brus (AWGN) kanal, energi skörd, offline strömförsörjning, Shannon kapacitet.
Dessutom analyserade Ozel och Ulukus REF punkt-till-punkt kommunikation av trådlös energi skörd och studerade effekterna av stokastisk energi ankomster för additiv vit Gaussian brus (AWGN) kanal i en informations-teoretisk ram.
12,417,250
Achieving AWGN Capacity Under Stochastic Energy Harvesting
{'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Computer Science']}
82,150
I (k, r)-Center får vi en (eventuellt kantviktad) graf och uppmanas att välja som mest k hörn (centra), så att alla andra hörn är på avstånd som mest r från ett centrum. I detta dokument ger vi ett antal snäva finkorniga gränser på komplexiteten av detta problem med avseende på olika standard graf parametrar. Specifikt: • För varje r ≥ 1, visar vi en algoritm som löser problemet i O * ((3r + 1) cw ) tid, där cw är klique-bredden i inmatningskurvan, samt en tight SETH lägre bundet matchar denna algoritms prestanda. Som en följd, för r = 1, detta minskar gapet som tidigare existerade på komplexiteten av Dominating Set parameterized av cw. • Vi stärker tidigare kända FPT nedre gränser, genom att visa att (k, r)-Center är W[1]-hård parameteriserad av indatagrafens vertex omslag (om kantvikter är tillåtna), eller feedback vertex set, även om k är en ytterligare parameter. Våra minskningar innebär snäva ETH-baserade nedre gränser. Slutligen, vi utformar en algoritm parameteriserad av vertex täcka för oviktade grafer. • Vi visar att komplexiteten i problemet parameteriseras av träddjup är 2 på (td 2 ) genom att visa en algoritm av denna komplexitet och en tight ETH-baserad nedre gräns. Vi kompletterar dessa mestadels negativa resultat genom att tillhandahålla FPT approximationssystem parameteriserade av klickbredd eller trädbredd som fungerar effektivt oberoende av värdena för k, r. I synnerhet ger vi algoritmer som, för alla > 0, kör i tiden O * ((tw/ ) O( tw) ), O * ((cw/ ) O(cw) ) och returnera en (k, (1 + )r)-center, om en (k, r)-center finns, vilket kringgår problemets W-hårdhet.
För parametrar kliquebredd och trädbredd, Katikarelis et al. REF visar att k-Center är W[1]-hård, men de ger också fastparameter approximationssystem för var och en av dessa parametrar.
11,965,708
Structural Parameters, Tight Bounds, and Approximation for (k,r)-Center
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,151
I många problem kommer ingångarna till problemet med tiden. Eftersom varje insats tas emot måste den behandlas oåterkalleligt. Sådana problem är problem på nätet. En allt vanligare metod för att lösa online-problem är att lösa motsvarande linjära program, antingen direkt för problemet eller genom att lätta på integralens begränsningar. Vid behov avrundas den erhållna fraktioneringslösningen online för att erhålla en integrerad lösning. Vi ger algoritmer för att lösa linjära program med blandad packning och täcker begränsningar online. Vi överväger först blandad förpackning och täcker linjära program, där förpackning begränsningar Px ≤ p ges offline och täcker begränsningar Cx ≥ c tas emot online. Målet är att minimera den maximala multiplikativa faktor genom vilken eventuella förpackningsbegränsningar kränks, samtidigt som de täcker begränsningar. För allmän blandad förpackning och täcker linjära program, inga tidigare sublinjära konkurrerande algoritmer är kända. Vi ger den första sådana -en polylogaritmisk-konkurrenskraftig algoritm för att lösa blandade packning och täcka linjära program på nätet. Vi visar också en nästan tajt nedre gräns. Våra tekniker för övre gräns använder en exponentiell strafffunktion i samband med multiplikativa uppdateringar. Medan exponentiella strafffunktioner används tidigare för att lösa linjära program offline ungefärligt, offline algoritmer känner till begränsningarna i förväg och kan optimera girigt. Däremot, när begränsningar anländer online, uppdateringar måste vara mer komplexa. Vi använder våra tekniker för att lösa två problem med fasta nätavgifter med trängsel. Dessa problem är motiverade av applikationer i maskin schemaläggning och anläggningsplats. Det linjära programmet för dessa problem är mer komplicerat än blandpackning och täckande, och innebär unika utmaningar. Vi visar att våra tekniker i kombination med en randomiserad avrundningsprocess kan användas för att få polylogaritmiska konkurrenskraftiga integrerade lösningar. Dessa problem generalisera online set-cover, för vilken det finns en polylogaritmisk lägre gräns. Våra resultat är därför nära förestående. † Dartmouth College, 6211 Sudikoff Lab, Hannover NH 03755. {umang,
REF:s arbete betraktades som en generaliserad ram, som kallas problemet med blandpaketering och täckning online (OMPC), där de övervägde linjära program med förpackningsbegränsningar och täcker begränsningar.
7,095,781
Online Mixed Packing and Covering
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,152
Tillkomsten av prisvärda, shared-inget computing systems introducerar en ny klass av parallella databashanteringssystem (DBMS) för on-line transaktionsbehandling (OLTP) applikationer som skala utan att offra ACID garantier [7, 9]. Resultaten av dessa DBMS bygger på att det finns en optimal databasdesign som är skräddarsydd för de unika egenskaperna hos OLTP arbetsbelastningar [43]. Att härleda sådana konstruktioner för moderna DBMS är svårt, särskilt för företagsklass OLTP-system, eftersom de medför extra utmaningar: användning av lagrade förfaranden, behovet av lastbalansering i närvaro av tidsvarierande skev, komplexa scheman och distributioner med större antal partitioner. För detta ändamål presenterar vi ett nytt tillvägagångssätt för att automatiskt dela upp databaser för företagsklass OLTP-system som avsevärt utökar den senaste tekniken genom att: (1) minimera antalet distribuerade transaktioner, samtidigt minska effekterna av temporal skev i både datadistribution och åtkomster, (2) utvidga designutrymmet till att omfatta replikerade sekundära index, (4) organiskt hantera lagrade förfaranden routing, och (3) skala av schema komplexitet, datastorlek, och antal partitioner. Detta arbete bygger på två viktiga tekniska bidrag: en analytisk kostnadsmodell som kan användas för att snabbt uppskatta den relativa samordningskostnaden och skevhet för en given arbetsbelastning och en kandidat databasdesign, och en informerad undersökning av den enorma lösning utrymme baserat på stora grannskap sökning. För att utvärdera våra metoder integrerade vi vårt databasdesignverktyg med en högpresterande parallell, huvudminne DBMS och jämförde våra metoder mot både populär heuristik och en toppmodern forskningsprototyp [17]. Med hjälp av en mängd olika riktmärken, visar vi att vår strategi förbättrar genomströmningen av upp till en faktor på 16× över dessa andra metoder.
Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. REF delar automatiskt om en databas baserat på en given arbetsbelastning med hjälp av lokal sökning.
13,504,572
Skew-aware automatic database partitioning in shared-nothing, parallel OLTP systems
{'venue': 'SIGMOD Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,153
Abstract-Vi undersöker kvantitativt hur maskininlärningsmodeller läcker information om de enskilda dataposter på vilka de utbildades. Vi fokuserar på den grundläggande medlemskap inference attack: med tanke på en datapost och black-box tillgång till en modell, avgöra om posten var i modellens träningsdataset. För att göra en medlemsslutsats mot en målmodell använder vi oss av maskininlärning och utbildar vår egen inferensmodell för att känna igen skillnader i målmodellens förutsägelser om de ingångar som den tränade på jämfört med de ingångar som den inte tränade på. Vi utvärderar empiriskt våra inferenstekniker på klassificeringsmodeller som utbildats av kommersiella "maskininlärning som en tjänst" leverantörer som Google och Amazon. Med hjälp av realistiska datauppsättningar och klassificeringsuppgifter, inklusive en datauppsättning för sjukhusutskrivning vars medlemskap är känsligt ur ett sekretessperspektiv, visar vi att dessa modeller kan vara sårbara för medlemsinferensattacker. Vi undersöker sedan de faktorer som påverkar detta läckage och utvärderar begränsningsstrategier.
Sochri m.fl. REF presenterar den första medlemsinferensattacken mot maskininlärningsmodeller.
10,488,675
Membership Inference Attacks Against Machine Learning Models
{'venue': '2017 IEEE Symposium on Security and Privacy (SP)', 'journal': '2017 IEEE Symposium on Security and Privacy (SP)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,154
I de flesta av metoderna för datorstödd upptäckt av bröstcancer, en av de förbehandling steg tillämpas på mammogrammet är avlägsnande/suppression av pectoral muskel, eftersom dess närvaro inom mammogrammet kan negativt påverka resultatet av cancer detektionsprocesser. Genom denna studie föreslår vi en effektiv automatisk metod med hjälp av vattendelare omvandling för att identifiera bröstmuskeln i mediolateral sned sikt mammogram. Den vattendelare omvandling av mammogrammet visar intressanta egenskaper som inkluderar utseendet av en unik vattendelare linje som motsvarar bröstmuskeln kanten. Utöver detta kan det konstateras att bröstmuskelregionen är översegmenterad på grund av förekomsten av flera avrinningsområden inom bröstmuskeln. Därför föreslås en lämplig sammanslagningsalgoritm för att kombinera lämpliga avrinningsområden för att erhålla den korrekta bröstmuskelregionen. Totalt 84 mammografier från den mammografiska bildanalysdatabasen användes för att validera detta tillvägagångssätt. De genomsnittliga falskt positiva och genomsnittliga falska negativa värdena, som erhållits genom att jämföra resultaten av den föreslagna metoden med manuellt identifierade (grundläggande sanning) muskelgränser, var 0,85 % respektive 4,88 %. En jämförelse av resultaten av den föreslagna metoden med relaterade toppmoderna metoder visar att det föreslagna tillvägagångssättets resultat är bättre än de befintliga metoderna när det gäller den genomsnittliga felaktiga negativa nivån. Med hjälp av Hausdorff avståndsmätare visar jämförelsen av resultaten från den föreslagna metoden med marksanning låga avstånd för Hausdorff, där medelvärdet och standardavvikelsen är 3,85 ± 1,07 mm.
Den vattendelar omvandling (WaT), en allmänt använd segmentering teknik, har tillämpats för att extrahera bröstmuskeln REF.
4,563,578
Pectoral muscle identification in mammograms
{'venue': 'Journal of applied clinical medical physics', 'journal': 'Journal of applied clinical medical physics', 'mag_field_of_study': ['Medicine']}
82,155
För att effektivt kunna använda flera datauppsättningar med heterogena kommentarer, föreslår detta dokument en kopplad sekvensmärkning modell som direkt kan lära sig och dra två heterogena kommentarer samtidigt, och för att underlätta diskussionen använder vi kinesisk del-ofspeech (POS) taggning som vår fallstudie. Nyckelidén är att bunta ihop två uppsättningar POS-taggar (t.ex. "[NN, n]"), och bygga en villkorlig slumpmässig fält (CRF) baserad taggning modell i det utvidgade utrymmet av medföljande taggar med hjälp av tvetydiga märkningar. För att träna vår modell på två icke-överlappande dataset som var och en har endast en sida taggar, vi omvandlar en ensidig tagg till en uppsättning med paketerade taggar genom att överväga alla möjliga kartläggningar på den saknade sidan och härleda en objektiv funktion baserad på tvetydiga märkningar. Den viktigaste fördelen med vår kopplade modell är att ge oss flexibiliteten att 1) införliva gemensamma funktioner på de medföljande taggarna för att implicit lära sig den lösa kartläggningen mellan heterogena kommentarer, och 2) utforska separata funktioner på ena sidan taggar för att övervinna problemet data sparseness av att använda endast medföljande taggar. Experiment på referensdataset visar att vår kopplade modell avsevärt överträffar de senaste baslinjerna på både ensidig POS-märkning och kommenterade omvandlingsuppgifter. Koderna och nyligen kommenterade data släpps för icke-kommersiell användning.
I REF [6] föreslås först den kopplade sekvensbeteckningen.
9,446,888
Coupled Sequence Labeling on Heterogeneous Annotations: POS Tagging as a Case Study
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,156
Neural modeller för frågesvar (QA) över dokument har uppnått betydande prestandaförbättringar. Även om dessa modeller är effektiva, skalas de inte till stor corpora på grund av deras komplexa modellering av interaktioner mellan dokumentet och frågan. Dessutom har den senaste tidens arbete visat att sådana modeller är känsliga för kontradiktoriska insatser. I detta dokument studerar vi det minimala sammanhang som krävs för att besvara frågan, och finner att de flesta frågor i befintliga datauppsättningar kan besvaras med en liten uppsättning meningar. Inspirerad av denna iakttagelse föreslår vi en enkel meningsväljare att välja den minimala uppsättningen meningar för att mata in i QA-modellen. Vårt övergripande system uppnår betydande minskningar i utbildning (upp till 15 gånger) och inferenstider (upp till 13 gånger), med noggrannhet jämförbar med eller bättre än toppmoderna på SQuAD, NewsQA, TriviaQA och SQuAD-Open. Dessutom visar våra experimentella resultat och analyser att vårt förhållningssätt är mer robust mot kontradiktoriska ingångar.
REF föreslår en enkel meningsväljare för att välja den minimala uppsättningen meningar och sedan mata in i QA-modellen.
29,161,506
Efficient and Robust Question Answering from Minimal Context over Documents
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,157
Fel i programvara är dyra och svåra att hitta och fixa. Under de senaste åren har många verktyg och tekniker utvecklats för att automatiskt hitta fel genom att analysera källkod eller mellankod statiskt (vid kompileringstid). Olika verktyg och tekniker har olika kompromisser, men de praktiska effekterna av dessa kompromisser är inte välbegripliga. I den här artikeln tillämpar vi fem felsökningsverktyg, särskilt Bandera, ESC/Java 2, FindBugs, JLint och PMD, på en mängd olika Javaprogram. Genom att använda en mängd olika verktyg kan vi dubbelkolla deras felrapporter och varningar. Våra experimentella resultat visar att ingen av verktygen strikt subsumerar en annan, och faktiskt verktygen ofta hitta icke-överlappande buggar. Vi diskuterar de tekniker som var och en av verktygen bygger på, och vi föreslår hur särskilda tekniker påverkar utmatningen av verktygen. Slutligen föreslår vi ett metaverktyg som kombinerar utmatningen av verktygen tillsammans, letar efter särskilda rader av kod, metoder, och klasser som många verktyg varnar för.
Rutar et al REF studerade ESC/Java, FindBugs, JLint och PMD.
2,587,928
A comparison of bug finding tools for Java
{'venue': '15th International Symposium on Software Reliability Engineering', 'journal': '15th International Symposium on Software Reliability Engineering', 'mag_field_of_study': ['Computer Science']}
82,158
Abstract-Network Functions Virtualization (NFV) är ett kommande paradigm där nätverksfunktioner virtualiseras och delas upp i flera byggstenar som kan kedjas ihop för att ge den funktionalitet som krävs. Detta tillvägagångssätt ökar nätflexibiliteten och skalbarheten eftersom dessa byggstenar kan fördelas och omfördelas på drifttid beroende på efterfrågan. Framgången med detta tillvägagångssätt beror på förekomsten och prestandan av algoritmer som bestämmer var, och hur dessa byggstenar är ögonblickliga. I detta dokument presenterar och utvärderar vi en formell modell för resursfördelning av virtualiserade nätverksfunktioner inom NFV-miljöer, ett problem som vi kallar Virtual Network Function Placement (VNF-P). Vi fokuserar på ett hybridscenario där en del av tjänsterna kan tillhandahållas av dedikerad fysisk hårdvara, och där en del av tjänsterna tillhandahålls med hjälp av virtualiserade serviceinstanser. Vi utvärderar VNF-P-modellen med hjälp av ett litet tjänsteleverantörsscenario och två typer av servicekedjor, och utvärderar dess utförandehastighet. Vi finner att algoritmerna slutar på 16 sekunder eller mindre för en liten tjänsteleverantör scenario, vilket gör det möjligt att reagera snabbt på föränderlig efterfrågan.
Moens m.fl. Beakta i REF hanteringen av förfrågningar om tjänster och virtuella maskiner separat för två typer av tjänstekedjor.
14,551,512
VNF-P: A model for efficient placement of virtualized network functions
{'venue': '10th International Conference on Network and Service Management (CNSM) and Workshop', 'journal': '10th International Conference on Network and Service Management (CNSM) and Workshop', 'mag_field_of_study': ['Computer Science']}
82,159
Kameraomlokalisering är ett viktigt problem i datorseendet, med tillämpningar i samtidig lokalisering och kartläggning, virtuell/förutsedd verklighet och navigering. Gemensamma tekniker antingen matchar den aktuella bilden mot tangentramar med kända poser som kommer från en spårare, eller etablera 2D-till-3D-korrespondenser mellan keypoints i den aktuella bilden och punkter i scenen för att uppskatta kamerans pose. Nyligen har regressionsskogar blivit ett populärt alternativ för att etablera sådana korrespondenser. De uppnår korrekta resultat, men måste tränas offline på målplatsen, vilket förhindrar omlokalisering i nya miljöer. I detta dokument visar vi hur man kringgår denna begränsning genom att anpassa en förskolad skog till en ny scen i farten. Våra anpassade skogar uppnår en omlokaliseringsprestanda som är i nivå med den för offlineskogar, och vår strategi går in under 150 ms, vilket gör det önskvärt för realtidssystem som kräver omlokalisering online.
SCRF har utökats REF för omlokalisering av onlinekamera genom att anpassa en förskolad skog till en ny scen i farten.
6,599,974
On-the-Fly Adaptation of Regression Forests for Online Camera Relocalisation
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
82,160
En exakt karakterisering av dessa säkerhetsprinciper som kan verkställas genom program omskrivning ges. Detta avslöjar och korrigerar också problem i tidigare arbete, vilket ger en bättre karakterisering av dessa säkerhetsstrategier som kan verkställas av exekutionsövervakare samt en taxonomi av verkställbara säkerhetsstrategier. Vissa men inte alla klasser kan identifieras med kända klasser från beräkningskomplex teori. Tillstånd att göra digitala eller hårda kopior av delar eller allt detta arbete för personligt bruk eller klassrum beviljas utan avgift under förutsättning att kopior inte görs eller distribueras för vinst eller direkt kommersiell fördel och att kopior visar detta meddelande på första sidan eller första skärmen av en skärm tillsammans med den fullständiga citering. Upphovsrätt till delar av detta verk som ägs av andra än ACM måste hedras. Abstraktering med kredit är tillåten. För att kopiera på annat sätt, för att återpublicera, för att posta på servrar, för att omfördela till listor, eller för att använda någon komponent i detta verk i andra verk krävs förhandsgodkännande och/eller avgift. Tillstånd kan begäras från publikationsavdelningen, ACM, Inc., 1515 Broadway, New York, NY 10036 USA, fax: +1 (212) 869-0481, eller behörigheter@acm.org. Omfattande system, såsom webbläsare, som laddar ner och kör applet-program, eller operativsystem, som innehåller drivrutiner för nya enheter, måste se till att deras förlängningar beter sig på ett sätt som överensstämmer med avsikterna hos systemdesignern och dess användare. När oacceptabla beteende går okontrollerat, skador kan resultera-inte bara till systemet själv utan också till anslutna system. Mekanismer för säkerhetstillsyn används för att förhindra oacceptabelt beteende. På senare tid har uppmärksamheten riktats mot att formellt karakterisera olika typer av tillsynsmekanismer och identifiera de klasser av säkerhetspolitik som de kan tillämpa [Ligatti et al. 2003; Schneider 2000; Viswanathan 2000 ]. Detta arbete gör det möjligt för oss att bedöma kraften hos olika mekanismer, välja mekanismer som är väl lämpade för särskilda säkerhetsbehov, identifiera typer av attacker som fortfarande kan lyckas även efter det att en viss mekanism har införts, och få meningsfulla fullständighetsresultat för nyligen utvecklade mekanismer. Den abstrakta modell för säkerhetspolitik som utarbetats av Schneider [2000] och förfinats av Viswanathan [2000] kännetecknar en kategori av politik som syftar till att fånga upp vad som effektivt skulle kunna genomdrivas genom övervakning av genomförandet. Avrättning övervakare är verkställighetsmekanismer som arbetar genom att övervaka de beräkningssteg av opålitliga program och ingripa när genomförandet är på väg att bryta säkerhetspolicyn som upprätthålls. Avrättningskontroll kan dock ses som ett exempel på den mer allmänna tekniken med programredigering, där verkställighetsmekanismen omvandlar opålitliga program innan de utförs för att göra dem oförmögna att bryta mot den säkerhetspolitik som ska verkställas. Så vitt vi vet har ingen karakterisering av den klass av säkerhetspolicyer som kan verkställas genom programredigering utvecklats. Sedan många system [Deutsch and Grant 1971; Small 1997; Wahbe et al. 1993; Schneider 2000a, 2000b; Evans och Twynman 1999] använder programredigering på sätt som går utöver vad som kan modelleras som en exekveringsövervakare, en karakterisering av den kategori av policyer som kan verkställas av programreskrivare skulle vara användbar. Så vi här utökar Schneiders och Viswanathans modell för att karakterisera denna nya klass av policys, RWenforceable policys, som motsvarar vad som effektivt kan genomdrivas genom program-rewriting. Avrättning övervakning kan ses som en instans av program-rewriting, så man skulle förvänta sig klass EM orig av politik som kännetecknas av Schneider och Viswanathan att vara en underklass av RW-genomförbar politik. Vi visar dock att detta förvånansvärt nog inte är fallet. Det finns vissa policyer i EM orig som inte är verkställbara av någon programredigerare. Vår analys av denna politik visar att de faktiskt inte kan verkställas av en avrättningsövervakare heller, och avslöjar att EM orig faktiskt utgör en övre gräns för den policyklass som kan verkställas av exekutionsövervakare i stället för en exakt gräns, som man tidigare trott. Vi visar sedan att det faktum att EM-orig skärs samman med RW-genomförbar politik ger exakt den politik som faktiskt kan genomföras av en verkställande övervakare, den EM-genomförbara politiken. Vi fortsätter på följande sätt. Vi fastställer en formell modell för säkerhetstillsyn i avsnitt 2. Nästa, i Avsnitt 3 använder vi den modellen för att karakterisera och relatera
Hamlen m.fl. beskrev en modell baserad på Turing Machines REF, med vilken de jämförde de försäkringsklasser som är verkställbara av flera typer av tillsynsmekanismer, såsom statisk analys och inbyggda övervakare.
15,456,713
Computability classes for enforcement mechanisms
{'venue': 'TOPL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,161
Sträng jämförelse är ett grundläggande problem inom datavetenskap, med tillämpningar inom områden som beräkningsbiologi, textbehandling och kompression. I det här dokumentet tar vi upp minsta gemensamma strängpartition problem, en sträng jämförelse problem med snäv koppling till problemet med sortering genom reverseringar med dubbletter, ett nyckelproblem i genom omorganisation. En partition av en sträng A är en sekvens P = (P 1, P 2,. .., P m ) av strängar, kallas blocken, vars konkatetering är lika med A. Eftersom en partition P av en sträng A och en partition Q av en sträng B, säger vi att paret P, Q är en gemensam partition av A och B om Q är en permutation av P. Det minsta gemensamma strängpartition problemet (MCSP) är att hitta en gemensam partition av två strängar A och B med det minsta antalet block. Den begränsade versionen av MCSP där varje bokstav inträffar som mest k gånger i varje inmatningssträng, betecknas av k-MCSP. I detta dokument visar vi att 2-MCSP (och därmed MCSP) är NP-hård och dessutom även APX-hård. Vi beskriver en 1.1037-approximation för 2-MCSP och en linjär 4-approximeringsalgoritm för 3-MCSP. Vi känner inte till några bättre approximationer. * Preliminär version av detta arbete presenterades på den 15: e internationella symposium om algoritmer och beräkning [9].
är NP-hård, och även APX-hård REF.
7,958,331
Minimum Common String Partition Problem: Hardness and Approximations
{'venue': 'ISAAC', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,162
Vi presenterar en ny konstruktion av anonym hierarkisk identitetsbaserad kryptering (HIBE) över prime order-grupper. Det utmärkande för vårt föreslagna system är att både privat nyckel och chiffertext har en konstant storlek, vilket aldrig har uppnåtts i alla andra befintliga anonyma HIBE-system. Dessutom använde vi en dubbel exponent teknik för att generera chiffertext för att ge anonymitet. Denna enkla och effektiva metod gör att vi kan bygga en mer kompakt anonym HIBE i prime order-grupper. Enligt det beslutsamma bilinjära n + 1-Diffie-Hellman exponent antagande och linjärt antagande, visar vi att det föreslagna systemet är säkert och anonymt mot valda klartext attacker i standardmodellen.
Zhang m.fl. REF föreslog ett anonymt HIBE-system över prime order-grupper där både privata nycklar och chiffertext har en konstant storlek.
28,078,929
Compact Anonymous Hierarchical Identity-Based Encryption with Constant Size Private Keys
{'venue': 'Comput. J.', 'journal': 'Comput. J.', 'mag_field_of_study': ['Computer Science']}
82,163
Den ökande efterfrågan på storskaliga tillämpningar för datautvinning och dataanalys har lett till att både industrin och den akademiska världen designat nya typer av mycket skalbara dataintensiva datorplattformar. MapReduce och Dryad är två populära plattformar där dataflödet tar formen av en riktad acyklisk graf av operatörer. Dessa plattformar saknar inbyggt stöd för iterativa program, som uppstår naturligt i många tillämpningar inklusive datautvinning, webbrankning, grafanalys, modellmontering, och så vidare. Detta dokument presenterar HaLoop, en modifierad version av Hadoop MapReduce ramverk som är utformad för att tjäna dessa tillämpningar. HaLoop utökar inte bara MapReduce med programmeringsstöd för iterativa applikationer, det förbättrar också dramatiskt deras effektivitet genom att göra aktivitet schemaläggaren loop-aware och genom att lägga till olika caching mekanismer. Vi utvärderade HaLoop på verkliga frågor och verkliga datauppsättningar. Jämfört med Hadoop minskar HaLoop i genomsnitt frågetiderna med 1,85 och blandar endast 4 % av data mellan kartare och reducerare.
HaLoop REF, en modifierad version av Hadoop, förbättrar effektiviteten i iterativa beräkningar genom att göra aktivitet schemaläggaren loop-aware och använder caching mekanismer.
1,172,674
HaLoop: Efficient Iterative Data Processing on Large Clusters
{'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']}
82,164
Gemensam morfologisk och syntaktisk analys har föreslagits som ett sätt att förbättra tolkningsnoggrannheten för rikt böjda språk. Med utgångspunkt från en övergångsbaserad modell för gemensam del-av-tal taggning och beroende tolkning, utforskar vi olika sätt att integrera morfologiska egenskaper i modellen. Vi undersöker också användningen av regelbaserade morfologiska analysatorer för att ge hårda eller mjuka lexiska begränsningar och användning av ordkluster för att ta itu med det glesa i lexiska funktioner. Utvärdering av fem morfologiskt rika språk (tjeckiska, finska, tyska, ungerska och ryska) visar konsekventa förbättringar i både morfologisk och syntaktisk noggrannhet för gemensam förutsägelse över en pipelinemodell, med ytterligare förbättringar tack vare lexiska begränsningar och ordkluster. De slutliga resultaten förbättrar den senaste tekniken när det gäller tolkning av beroendet för alla språk.
Gemensam morfologisk och syntaktisk analys av flera morfologiskt rika språk presenteras i REF.
1,992,679
Joint Morphological and Syntactic Analysis for Richly Inflected Languages
{'venue': 'Transactions of the Association for Computational Linguistics', 'journal': 'Transactions of the Association for Computational Linguistics', 'mag_field_of_study': ['Computer Science']}
82,165
Parafrasmönster är användbara i parafrasigenkänning och generering. I detta dokument presenterar vi en pivot strategi för att extrahera parafras mönster från tvåspråkiga parallella corpora, där de engelska parafras mönster extraheras med hjälp av meningarna i ett främmande språk som pivots. Vi föreslår en loglinjär modell för att beräkna parafras sannolikheten för två mönster och utnyttja funktionsfunktioner baserat på maximal sannolikhetsuppskattning (MLE) och lexikal viktning (LW). Med hjälp av den presenterade metoden, vi extrahera över 1.000.000 par parafras mönster från 2M tvåspråkig mening par, vars precision överstiger 67%. Utvärderingsresultaten visar att: (1) Pivotmetoden är effektiv för att extrahera parafrasmönster, vilket avsevärt överträffar den konventionella metoden DIRT. Speciellt den log-linjära modellen med de föreslagna funktionsfunktionerna uppnår hög prestanda. (2) Täckningen av de extraherade parafrasmönstren är hög, vilket är över 84 %. (3) De extraherade parafrasmönstren kan klassificeras i fem typer, som är användbara i olika tillämpningar.
REF skaffa parafras mönster från tvåspråkiga corpora och rapportera de olika typer som erhålls.
18,556,126
Pivot Approach for Extracting Paraphrase Patterns from Bilingual Corpora
{'venue': 'Annual Meeting Of The Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,166
Deskriptiva namn är en viktig del av läsbar och därmed underhållsbar kod. Nyligen gjorda framsteg på automatiskt föreslå namn för lokala variabler tantaliserar med utsikten att replikera denna framgång med metod och klassnamn. Det är dock mycket svårare att ange namn på metoder och klasser. Detta beror på att bra metod- och klassnamn måste vara funktionellt beskrivande, men att föreslå sådana namn kräver att modellen går utöver det lokala sammanhanget. Vi introducerar en neural probabilistisk språkmodell för källkod som är speciellt utformad för metoden namnge problem. Vår modell lär sig vilka namn som är semantiskt lika genom att tilldela dem till platser, som kallas inbäddningar, i ett högdimensionellt kontinuerligt utrymme, på ett sådant sätt att namn med liknande inbäddningar tenderar att användas i liknande sammanhang. Dessa inbäddningar verkar innehålla semantisk information om polletter, även om de endast lärs av statistiska samtidiga förekomster av polletter. Dessutom introducerar vi en variant av vår modell som, såvitt vi vet, är den första som kan föreslå neologism, namn som inte har dykt upp i tränings corpus. Vi får toppmoderna resultat om metod, klass, och även enklare variabel namngivning uppgifter. Mer allmänt har de kontinuerliga inbäddningar som vi lär oss av vår modell potential för bred tillämpning inom programvaruteknik.
Allamanis m.fl. REF använde neurala språkmodeller för att förutsäga variabel, metod och klassnamn.
9,279,336
Suggesting accurate method and class names
{'venue': 'ESEC/FSE 2015', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,167
Drone basstationer (DBS) kan öka nättäckningen och områdeskapaciteten genom att flytta utbudet mot efterfrågan när det behövs. Denna grad av frihet skulle kunna vara särskilt användbar för framtida tillämpningar med extrema krav, såsom ultratillförlitlig och låg latent kommunikation (urLLC). Införandet av tullkreditsystem kan dock möta flera utmaningar. En fråga är att hitta 3D placering av sådana BS för att uppfylla dynamiska krav i systemet. För det andra är tillgången till tillförlitliga trådlösa backhaul-länkar och den tillhörande resurstilldelningen de viktigaste frågorna som bör beaktas. Slutligen blir sammanslutningen av användare med systemviktiga betalningssystem ett problem på grund av rörligheten för systemviktiga betalningssystem. I detta dokument överväger vi en makro-BS (MBS) och flera DBS som förlitar sig på de trådlösa länkarna till MBS för backhauling. Med tanke på vanliga och uRLLC-användare, föreslår vi en algoritm för att hitta effektiva 3D platser DBS förutom användar-BS-föreningar och trådlösa backhaul bandbreddstilldelningar för att maximera summan logaritmiska hastighet av användarna. I detta syfte används en nedbrytningsmetod för att först hitta användaren-BS association och bandbreddstilldelningar. Då DBS platser uppdateras med hjälp av en heuristisk partikel svärm optimering algoritm. Simuleringsresultat visar den föreslagna metodens effektivitet och ger användbara insikter om effekterna av trafikfördelningar och antennstrålkastare.
Dessutom föreslog arbetet i REF en algoritm för att maximera summan av markanvändare genom gemensam optimering av användare-till-dron-BS association och trådlösa backhaul bandbreddstilldelningar.
3,416,978
User association and bandwidth allocation for terrestrial and aerial base stations with backhaul considerations
{'venue': '2017 IEEE 28th Annual International Symposium on Personal, Indoor, and Mobile Radio Communications (PIMRC)', 'journal': '2017 IEEE 28th Annual International Symposium on Personal, Indoor, and Mobile Radio Communications (PIMRC)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,168
En modellbaserad metod för interaktiv segmentering av bukaortaaneurysmer från CTA-data presenteras. Efter manuell avgränsning av aneurysmsäcken i den första delen detekterar metoden automatiskt konturen i efterföljande skivor med hjälp av resultatet från föregående skiva som referens. Om den erhållna konturen inte är tillräckligt exakt kan användaren ingripa och tillhandahålla ytterligare en manuell referenskontur. Metoden är inspirerad av den aktiva formmodellen (ASM) segmenteringsschema (Cootes et al., 1995), där en statistisk form modell, härledd från motsvarande landmärken i manuellt märkta träningsbilder, är monterad på bilden på ett iterativt sätt. I vår metod är en formmodell av konturerna i två intilliggande bildskivor successivt monterad på hela volymen. Konturen som erhålls i en skiva begränsar därmed de möjliga formerna i nästa skiva. Den optimala passformen bestäms på grundval av flerupplösningsgrå nivå modeller konstruerade av grå värde fläckar som provtas runt varje landmärke. Vi föreslår att man använder likheten mellan intilliggande bildskivor för denna grå nivåmodell, och jämför dessa med single-slice funktioner som mer allmänt används med ASM. Prestanda av olika bildfunktioner utvärderas i leave-one-out experiment på 23 dataset. Funktioner som använder likheten av intilliggande bild skivor överträffar åtgärder baserat på single-slice funktioner i alla fall. Det genomsnittliga antalet skivor i våra datauppsättningar är 51, medan i genomsnitt åtta manuella initieringar krävs, vilket minskar operatörens segmenteringstid med en faktor på 6.
I sin skiva-wise SSM-baserade segmentering av buken aorta aneurysms, de REF initierar den nuvarande delens PDM montering från segmentering resultatet av föregående skiva, med möjlighet att manuellt korrigera segmenteringar på en per-slice basis.
12,450,199
Interactive segmentation of abdominal aortic aneurysms in CTA images
{'venue': 'Medical Image Analysis', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Medicine', 'Computer Science']}
82,169
I detta dokument föreslår vi en visuell detekteringsalgoritm från återuppbyggnadsfelens perspektiv. Bildgränserna extraheras först via superpixlar som troliga signaler för bakgrundsmallar, från vilka täta och glesa utseendemodeller konstrueras. För varje bildregion beräknar vi först täta och glesa återuppbyggnadsfel. För det andra sprids rekonstruktionsfelen på grundval av de sammanhang som erhålls från k-medelsklustret. För det tredje, pixel-nivå saliency beräknas genom en integrering av flerskaliga rekonstruktionsfel och förfinas av en objekt-grundad Gaussian modell. Vi tillämpar Bayes-formeln för att integrera saltåtgärder baserade på täta och glesa återuppbyggnadsfel. Experimentella resultat visar att den föreslagna algoritmen presterar gynnsamt mot sjutton state-of-the-art metoder i termer av precision och recall. Dessutom har den föreslagna algoritmen visat sig vara mer effektiv när det gäller att lyfta fram framträdande föremål på ett enhetligt och robust sätt mot bakgrundsbuller.
I REF föreslogs en visuell detekteringsalgoritm med avseende på rekonstruktionsfel, där bildgränser först extraheras via superpixlar som troliga signaler för bakgrundsmallar, från dem täta och glesa utseendemodeller konstrueras.
9,201,661
Saliency Detection via Dense and Sparse Reconstruction
{'venue': '2013 IEEE International Conference on Computer Vision', 'journal': '2013 IEEE International Conference on Computer Vision', 'mag_field_of_study': ['Computer Science']}
82,170
häst zebra zebra häst Sommar Vinter vinter vinter vinter sommar Fotografering Van Gogh Cezanne Monet Ukiyo-e Monet Bilder Monet foto foto Monet Figur 1: Med tanke på två oordnade bildsamlingar X och Y, vår algoritm lär sig att automatiskt "översätta" en bild från en till den andra och vice versa. Exempel ansökan (botten): med hjälp av en samling målningar av en berömd konstnär, lära sig att göra en användares fotografi i deras stil. Image-to-image översättning är en klass av vision och grafik problem där målet är att lära sig kartläggningen mellan en ingångsbild och en utgångsbild med hjälp av en utbildning uppsättning av anpassade bildpar. För många uppgifter kommer dock inte parade träningsdata att finnas tillgängliga. Vi presenterar ett tillvägagångssätt för att lära sig översätta en bild från en källkodsdomän X till en måldomän Y i avsaknad av parade exempel. Vårt mål är att lära sig en kartläggning G : X → Y sådan att distributionen av bilder från G(X) är oskiljaktig från distributionen Y med hjälp av en kontradiktorisk förlust. Eftersom denna kartläggning är mycket underkonsekventa, vi par det med en invers kartläggning F : Y → X och införa en cykelkonsistens förlust att push F (G(X)) på X (och vice versa). Kvalitativa resultat presenteras på flera uppgifter där parade träningsdata inte finns, inklusive insamling stil överföring, objekttransfiguration, säsong överföring, fotoförbättring, etc. Kvantitativa jämförelser mot flera tidigare metoder visar hur överlägsen vår strategi är.
För problemet utan parade träningsdata, Zhu et al. REF presenterade CycleGAN med en cykelkonsistensbegränsning.
206,770,979
Unpaired Image-to-Image Translation Using Cycle-Consistent Adversarial Networks
{'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
82,171
För att ett autonomt system skall vara till nytta för människor och inte utgöra några omotiverade risker, måste det anpassa sina värden till människors värden i sin omgivning på ett sådant sätt att dess handlingar bidrar till att maximera värdet för människorna. Vi föreslår en formell definition av problemet med värdeanpassning som samarbetsvilligt inverst förstärkande lärande (CIRL). Ett CIRL-problem är ett kooperativt, partiellt informationsspel med två agenter, människa och robot; båda belönas enligt människans belöningsfunktion, men roboten vet till en början inte vad detta är. I motsats till klassisk IRL, där människan antas agera optimalt i isolering, producerar optimala CIRL-lösningar beteenden som aktiv undervisning, aktivt lärande och kommunikativa åtgärder som är mer effektiva för att uppnå värdeanpassning. Vi visar att computing optimal gemensam politik i CIRL spel kan reduceras till att lösa en POMDP, bevisa att optimalitet i isolering är suboptimal i CIRL, och härleda en ungefärlig CIRL algoritm.
Ett centralt steg i vår analys formulerar avstängning spelet som ett kooperativ omvänd förstärkning lärande (CIRL) spel REF.
6,208,061
Cooperative Inverse Reinforcement Learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,172
Denna artikel studerar topologistyrning i heterogena trådlösa sensornätverk, där olika trådlösa sensorer kan ha olika maximala överföringsområden och två noder kan kommunicera direkt med varandra om och endast om de är inom det maximala överföringsområdet för varandra. Vi presenterar flera lokala topologikontrollstrategier där varje trådlös sensor upprätthåller logiska kommunikationslänkar till endast en utvald liten delmängd av sina fysiska grannar med hjälp av information om sensorer inom sitt lokala område i en heterogen nätverksmiljö. Vi bevisar att de globala logiska nätverkstopologier som bildas av dessa lokalt utvalda länkar är sparsamma och/eller effekteffektiva och våra metoder är kommunikationseffektiva. Här är en struktur effekteffektiv om den totala effektförbrukningen för den minsta kostnadsbanan som förbinder två noder i den inte är mer än en liten konstant faktor av det i det ursprungliga heterogena kommunikationsnätet. Genom att utnyttja den trådlösa kanalkapaciteten, och förutsatt att ett meddelande som skickas av en sensornod kommer att tas emot av alla sensorer inom dess överföringsregion med högst ett konstant antal sändningar, visar vi att alla våra metoder använder högst O(n) totala meddelanden, där varje meddelande har O(log n) bitar. Vi genomför också omfattande simuleringar för att studera våra metoders praktiska prestanda.
I REF presenterar författarna flera lokala topologikontrollstrategier för heterogena nätverksmiljöer.
9,750,135
Localized topology control for heterogeneous wireless sensor networks
{'venue': 'TOSN', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,173
Bakgrund: Beräkningsmodeller spelar en allt viktigare roll i bedömningen och kontrollen av folkhälsokriser, vilket visades under 2009 års H1N1-influensapandemi. Mycket forskning har gjorts under de senaste åren i utvecklingen av sofistikerade datadrivna modeller för realistiska datorbaserade simuleringar av smittspridning. För närvarande finns dock endast ett fåtal beräkningsverktyg tillgängliga för att bedöma scenarier, förutsäga epidemisk utveckling och hantera hälsokriser som kan gynna en bred publik av användare, däribland beslutsfattare och hälsoinstitutioner. Resultat: Vi presenterar "GLEaMviz", ett allmänt tillgängligt mjukvarusystem som simulerar spridningen av nya infektionssjukdomar mellan människor över hela världen. Verktyget GLEaMviz består av tre komponenter: klientprogrammet, proxy middleware och simuleringsmotorn. De två senare komponenterna utgör GLEaMviz-servern. Simuleringsmotorn utnyttjar ramverket Global Epidemic and Mobility (GLEaM), ett stokastiskt beräkningssystem som integrerar globalt högupplösta demografiska data och mobilitetsdata för att simulera sjukdomsspridning på global nivå. GLEaMviz design syftar till att maximera flexibiliteten i att definiera sjukdomskategorimodellen och konfigurera simuleringsscenariot; det gör det möjligt för användaren att ställa in en mängd olika parametrar inklusive: fackspecifika funktioner, övergångsvärden, och miljöpåverkan. Utgången är en dynamisk karta och en motsvarande uppsättning diagram som kvantitativt beskriver sjukdomens geo-temporella utveckling. Programvaran är utformad som ett klient-server-system. Den multiplattformsklient, som kan installeras på användarens lokala maskin, används för att ställa in simuleringar som kommer att utföras på servern och därmed undvika särskilda krav för stora beräkningsfunktioner på användarsidan. Slutsatser: Det användarvänliga grafiska gränssnittet för verktyget GLEaMviz, tillsammans med dess höga detaljnivå och realismen i dess inbyggda modelleringsstrategi, öppnar plattformen för att simulera realistiska epidemiska scenarier. Dessa funktioner gör GLEaMviz beräkningsverktyg till ett praktiskt undervisnings- och utbildningsverktyg samt ett första steg mot utvecklingen av ett beräkningsverktyg som syftar till att underlätta användning och utnyttjande av beräkningsmodeller för beslutsfattande och scenarioanalys av utbrott av infektionssjukdomar.
GLEaMviz verktyg REF är en programvara som kan simulera spridningen av epidemier i stor skala.
753,634
The GLEaMviz computational tool, a publicly available software to explore realistic epidemic spreading scenarios at the global scale
{'venue': 'BMC Infectious Diseases', 'journal': 'BMC Infectious Diseases', 'mag_field_of_study': ['Medicine', 'Geography']}
82,174
Sequences har blivit första klassens medborgare i övervakad lärande tack vare återuppkomsten av återkommande neurala nätverk. Många komplexa uppgifter som kräver kartläggning från eller till en sekvens av observationer kan nu formuleras med sekvens-till-sekvens (seq2seq) ram som använder kedjeregeln för att effektivt representera den gemensamma sannolikheten för sekvenser. I många fall kan dock variabla ingångar och/eller utgångar inte uttryckas naturligt som sekvenser. Till exempel är det inte klart hur man matar in en uppsättning siffror i en modell där uppgiften är att sortera dem; på liknande sätt vet vi inte hur man organiserar utdata när de motsvarar slumpmässiga variabler och uppgiften är att modellera deras okända gemensamma sannolikhet. I det här dokumentet visar vi först med hjälp av olika exempel att den ordning i vilken vi organiserar indata och/eller utdata spelar en betydande roll när vi lär oss en underliggande modell. Vi diskuterar sedan en förlängning av ramen för öv 2seq som går längre än sekvenser och hanterar inmatningsuppsättningar på ett principfast sätt. Dessutom föreslår vi en förlust som, genom att söka över möjliga beställningar under utbildningen, behandlar bristen på struktur av outputset. Vi visar empiriska bevis på våra påståenden om beställning, och om ändringar i de följande 2seq ramverket om benchmarking språkmodellering och tolkning uppgifter, samt två artificiella uppgifter -sortering nummer och uppskattning av den gemensamma sannolikheten för okända grafiska modeller.
REF utrustar sekvens till sekvensmodeller med förmågan att hantera inmatnings- och utgångsuppsättningar, och diskutera experiment om sortering, språkmodellering och tolkning.
13,948,549
Order Matters: Sequence to sequence for sets
{'venue': 'ICLR 2016', 'journal': 'arXiv: Machine Learning', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,175
Abstract-Den snabba utbyggnaden av nya tillämpningar och sammankopplingen av nätverk med ökande mångfald av teknik och kapacitet gör det svårare att ge en fullständig kvalitetssäkring av mervärdestjänster, såsom överföring av multimedia i realtid och uppdragskritiska data. I ett nätverk med förbättringar för QoS-stöd ger prissättningen av nättjänster baserad på servicenivå, användning och trängsel ett naturligt och rättvist incitament för multimedietillämpningar att anpassa sina sändningsavgifter efter nätförhållandena. Vi har utvecklat en intelligent tjänstearkitektur som integrerar resursreservation, förhandling, prissättning och anpassning på ett flexibelt och skalbart sätt. I detta dokument presenterar vi en generisk prisstruktur som kännetecknar de prissättningssystem som används i stor utsträckning på det nuvarande Internet, och inför en dynamisk, trängselkänslig prissättningsalgoritm som kan användas med den föreslagna tjänsteramen. Vi utvecklar också efterfrågebeteendet hos adaptiva användare baserat på en fysiskt rimlig användarfunktion. Vi introducerar vår multimedia testbädd och beskriver hur det föreslagna intelligenta ramverket kan implementeras för att hantera ett videokonferenssystem. Vi utvecklar ett simuleringsramverk för att jämföra prestanda hos ett nätverk som stöder trängselkänslig prissättning och adaptiv reservation till ett nät med en statisk prispolitik. Vi studerar stabiliteten i de dynamiska prissättnings- och bokningsmekanismerna och effekterna av olika parametrar för nätverksstyrning. Resultaten visar att det trängselkänsliga prissättningssystemet drar nytta av tillämpningsanpassningen för att uppnå betydande vinster i fråga om nättillgänglighet, intäkter och användarupplevda fördelar i förhållande till den fasta prispolitiken. Konjunkturbaserad prissättning är stabil och effektiv när det gäller att begränsa utnyttjandet till en målinriktad nivå. Användare med olika efterfrågan elasticitet ses att dela bandbredd rättvist, med varje användare har en bandbredd andel proportionell mot dess relativa villighet att betala för bandbredd. Resultaten visar också att även en liten andel adaptiva användare kan ge betydande fördelar och bättre service för hela användarpopulationen – både adaptiva och icke adaptiva användare. Den förbättring av prestandan som följer av den trafikträngselbaserade anpassningspolitiken förbättras ytterligare i takt med att nätskalorna och fler anslutningar delar på resurserna. Slutligen kompletterar vi simuleringen med experimentella resultat som visar viktiga inslag i anpassningsprocessen.
I REF presenteras en generisk prisstruktur för att beskriva de prissättningssystem som för närvarande används på Internet, och en dynamisk, trängselkänslig prissättningsalgoritm införs för att ge multimediatillämpningar incitament att anpassa sina sändningspriser efter nätförhållandena.
3,258,331
Incentive-compatible adaptation of Internet real-time multimedia
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science']}
82,176
De flesta populära djupa modeller för åtgärdsigenkänning split videosekvenser i korta sub-sekvenser som består av några bilder; ram-baserade funktioner poolas sedan för att känna igen aktiviteten. Vanligtvis, detta pooling steg kastar temporal ordning ramar, som annars skulle kunna användas för bättre igenkänning. I detta syfte föreslår vi en ny pooling metod, generaliserad rankning (GRP), som tar som ingång, funktioner från de mellanliggande skikten i en CNN som är utbildad på små sub-sekvenser, och producerar som utgång parametrarna för en subrymd som (i) ger en låg-ranking approximation till funktionerna och (ii) bevarar sin temporal ordning. Vi föreslår att dessa parametrar används som en kompakt representation för videosekvensen, som sedan används i en klassificeringsuppsättning. Vi formulerar ett mål för att beräkna denna subrymd som ett Riemannskt optimeringsproblem på Grassmann-grenröret, och föreslår ett effektivt konjugerat gradientsystem för att lösa det. Experiment på flera aktivitetsigenkänningsdata visar att vårt system leder till toppmoderna resultat.
Liknar vår, Cherian et al. REF föreslår att ett subutrymme används för att representera videosekvenser.
17,032,894
Generalized Rank Pooling for Activity Recognition
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
82,177
Att låta ett djupt nätverk vara medvetet om kvaliteten på sina egna förutsägelser är ett intressant men ändå viktigt problem. I uppgiften som exempel segmentering, förtroende instans klassificering används som mask kvalitet poäng i de flesta fall segmentering ramar. Men maskens kvalitet, som kvantifieras som IoU mellan instansmasken och dess grundsanning, är vanligtvis inte väl korrelerad med klassificeringspoäng. I detta dokument studerar vi detta problem och föreslår Mask Scoring R-CNN som innehåller ett nätverk block för att lära sig kvaliteten på de förutsagda instans masker. Det föreslagna nätverksblocket tar instansfunktionen och motsvarande förutsagd mask tillsammans för att regressera masken IoU. Mask scoring strategi kalibrerar felinställningen mellan mask kvalitet och mask poäng, och förbättrar instans segmentering prestanda genom att prioritera mer exakta mask förutsägelser under COCO AP utvärdering. Genom omfattande utvärderingar av COCO dataset ger Mask Scoring R-CNN konsekvent och märkbar vinst med olika modeller och överträffar toppmoderna Mask R-CNN. Vi hoppas att vår enkla och effektiva strategi kommer att ge en ny riktning för att förbättra till exempel segmentering. Källkoden för vår metod finns på https:// github.com/zjhuang22/maskscoring_rcnn.
Mask Scoring R-CNN REF re-scores förtroendet för mask från klassificering poäng genom att lägga till en mask-IoU gren, vilket gör nätverket för att förutsäga IoU av mask och mark-sanning.
67,856,179
Mask Scoring R-CNN
{'venue': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
82,178
Abstract-The nedlänk av en massiv MIMO-system beaktas för det fall där basstationen samtidigt måste betjäna två kategorier av terminaler: en grupp för vilken ofullständig ögonblicklig kanal state information (CSI) är tillgänglig, och en grupp för vilken ingen CSI är tillgänglig. Motiverande tillämpningar omfattar radio- och TV-sändningar av offentliga kanaler och kontrollinformation i trådlösa nät. En ny teknik utvecklas och analyseras: gemensam strålformning och sändning (JBB), genom vilken basstationen strålformar till den grupp av terminaler som CSI är tillgänglig för, och sänder till den andra gruppen av terminaler, som ingen CSI är tillgänglig för. Sändningens information stör inte strålformningen eftersom den placeras i kanalmatrisens nollrum som kollektivt ses av de terminaler som strålformningen riktar sig till. JBB jämförs med ortogonal access (OA), genom vilken basstationen delar tidsfrekvensresurserna i två olika delar, en för varje grupp av terminaler. Det visas att JBB avsevärt kan överträffa OA när det gäller den totala utstrålade effekten för givna hastighetsmål.
I REF placeras sändningsmeddelandet i kanalens null-space kollektivt sett av unicast-användarna så att sändningsmeddelandet inte stör Unicasten.
12,717,206
Joint Beamforming and Broadcasting in Massive MIMO
{'venue': 'IEEE Trans. Wireless Communications, 2016', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,179
Den ventrala visuella strömmen ligger till grund för viktiga mänskliga synobjektsigenkänningsförmågor. Emellertid är neural kodning i de högre områdena av ventralströmmen fortfarande dåligt förstådd. Här beskriver vi en modelleringsmetod som ger en kvantitativt korrekt modell av underlägsen temporal (IT) cortex, det högsta ventralkortikala området. Med hjälp av avancerade beräkningstekniker upptäckte vi att det inom en klass av biologiskt rimliga hierarkiska neurala nätverksmodeller finns en stark korrelation mellan en modells kategoriseringsförmåga och dess förmåga att förutsäga individuella data från IT-neurala enheter. För att fullfölja denna idé, identifierade vi sedan en högpresterande neurala nätverk som matchar mänskliga prestanda på en rad igenkänningsuppgifter. Critically, även om vi inte begränsa denna modell för att matcha neural data, dess topp output lager visar sig vara mycket prediktiv av IT spika svar på komplexa naturalistiska bilder på både enstaka plats och befolkningsnivåer. Dessutom är modellens mellanskikt mycket prediktiva av neurala svar i V4 cortex, ett mellannivå visuellt område som ger den dominerande kortikal indata till IT. Dessa resultat visar att prestandaoptimering som tillämpas i en biologiskt lämplig modellklass kan användas för att bygga kvantitativa prediktiva modeller av neural bearbetning. beräknings neuroscience på datorseende med elektrofysiologi R etinala bilder av verkliga objekt varierar drastiskt på grund av förändringar i objektpose, storlek, position, belysning, icke-rigid deformation, ocklusion, och många andra källor till buller och variation. Människor känner utan ansträngning igen föremål snabbt och exakt trots denna enorma variation, en imponerande beräkningsuppgift (1). Denna förmåga stöds av en uppsättning sammankopplade hjärnområden som kollektivt kallas ventral visuell ström (2, 3), med homologa områden i icke-mänskliga primater (4). Ventralströmmen anses fungera som en serie hierarkiska bearbetningssteg (5-7) som kodar bildinnehåll (t.ex. objektidentitet och kategori) alltmer explicit i på varandra följande kortikala områden (1, 8, 9). Till exempel är neuroner i det lägsta området, V1, väl beskrivna av Gabor-liknande kantdetektorer som extraherar grova objekt konturer (10), även om V1-populationen inte visar robust tolerans mot komplexa bildomvandlingar (9). Omvänt, snabbt framkallad befolkning aktivitet i toppnivå sämre temporal (IT) cortex kan direkt stödja realtid, invariant objekt kategorisering över ett brett spektrum av uppgifter (11, 12). Mellannivå ventralområden, t.ex. V4, den dominerande cortical inputen till IT-exhibit mellanliggande nivåer av objektselektivitet och variationstolerans (12) (13) (14). Betydande framsteg har gjorts när det gäller att förstå nedre ventrala områden som V1, där konceptuellt övertygande modeller har upptäckts (10). Dessa modeller är också kvantitativt korrekta och kan förutsäga respons magnituder av enskilda neuronal enheter till nya bild stimuli. Högre ventralkortikala områden, särskilt V4 och IT, har varit mycket svårare att förstå. Även om första principer-baserade modeller av högre ventrala cortex har föreslagits (15-20), dessa modeller misslyckas med att matcha viktiga egenskaper i den högre ventrala visuella neural representation i både människor och macaques (4, 21). Dessutom har försök att passa V4 och IT neural tuning kurvor på allmänna bild stimuli visat endast begränsad prediktiv framgång (22, 23). Att förklara neuralkodningen i dessa högre ventrala områden är således fortfarande en grundläggande öppen fråga inom system neurovetenskap. Som med V1 bör modeller av högre ventrala områden vara neuralt prediktiva. Eftersom den högre ventralströmmen också tros ligga till grund för sofistikerade kapaciteter för att känna igen objekt, måste modellerna också matcha IT på prestandamått, motsvarande (eller överstigande) avkodningskapaciteten hos IT-neuroner på objektigenkänningsuppgifter. En modell med perfekt neural prediktivitet i IT kommer nödvändigtvis att uppvisa hög prestanda, eftersom IT själv gör. Här visar vi att det motsatta också är sant, inom en biologiskt lämplig modellklass. Genom att kombinera avancerade beräknings- och elektrofysiologitekniker utforskar vi ett brett spektrum av biologiskt rimliga hierarkiska neurala nätverksmodeller och bedömer dem sedan mot uppmätta data för IT och V4 neural respons. Vi visar att det finns ett starkt samband mellan en modells prestanda på en utmanande objektigenkänningsuppgift med hög variation och dess förmåga att förutsäga individuella IT-neuralenheters svar. Genom att utöka denna idé, använde vi optimeringsmetoder för att identifiera en neural nätverksmodell som matchar mänskliga prestanda på en rad igenkänningsuppgifter. Vi visar sedan att även om denna modell aldrig uttryckligen begränsas till att matcha neural data, dess utdataskikt är mycket prediktiv av neurala svar i IT cortex-framställa en första kvantitativt exakt modell av denna högsta ventral cortex område. Dessutom är de mellersta skikten av modellen mycket prediktiva av V4 neurala svar, vilket tyder på top-down prestanda begränsningar direkt form mellanliggande visuella representationer. Människor och apor känner lätt igen föremål i scener. Denna förmåga är känd för att stödjas av ett nätverk av hierarkiskt sammankopplade hjärnområden. Men förståelse neuroner i högre nivåer av denna hierarki har länge förblivit en stor utmaning i visuella system neurovetenskap. Vi använder beräkningstekniker för att identifiera en neural nätverksmodell som matchar mänsklig prestanda på utmanande objekt kategorisering uppgifter. Även om denna modell inte uttryckligen begränsas till att matcha neural data, visar sig vara mycket prediktiv av neurala svar i både V4 och lägre temporal cortex, de två översta skikten av ventral visuell hierarki. Förutom att ge kraftigt förbättrade modeller av visuell cortex, dessa resultat tyder på att en process för biologisk prestandaoptimering direkt formade neurala mekanismer.
Vid korsningen av neurovetenskap och datorseende, Yamins et al. REF finner att funktionssvar från högpresterande CNNs kan exakt modellera den neurala responsen av det mänskliga visuella systemet i den lägre temporal (IT) cortex (ett område i den mänskliga hjärnan som svarar på komplexa visuella stimuli).
3,792,835
Performance-optimized hierarchical models predict neural responses in higher visual cortex
{'venue': 'Proceedings of the National Academy of Sciences of the United States of America', 'journal': 'Proceedings of the National Academy of Sciences of the United States of America', 'mag_field_of_study': ['Computer Science', 'Medicine']}
82,181
Rund Robin, anses som den mest allmänt antagna CPU schemaläggning algoritm, genomgår allvarliga problem som är direkt relaterade till kvantstorlek. Om tidsräknaren är för stor anses reaktionstiden för processerna vara för hög. Å andra sidan, om detta kvantum är för liten, det ökar omkostnaderna för CPU. I detta dokument föreslår vi en ny algoritm, kallad AN, baserad på ett nytt tillvägagångssätt som kallas dynamisk tid-kvantum; idén med detta tillvägagångssätt är att göra operativsystemen justerar tid kvant enligt sprängtiden för uppsättningen av väntande processer i den färdiga kön. Baserat på simuleringar och experiment visar vi att den nya föreslagna algoritmen löser det fasta tidskvantproblemet och ökar prestandan hos Round Robin.
I runda Robin, tid kvant är den mest betydande termen REF.
719,866
A New Round Robin Based Scheduling Algorithm for Operating Systems: Dynamic Quantum Using the Mean Average
{'venue': 'IJCSI International Journal of Computer Science Issues, Vol. 8, Issue 3, No. 1, 2011, 224-229', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,182
Tweets är den mest aktuella och inkluderande ström av information och kommentarer om aktuella händelser, men de är också fragmenterade och bullriga, motivera behovet av system som kan extrahera, aggregera och kategorisera viktiga händelser. Tidigare arbete med att extrahera strukturerade representationer av händelser har främst fokuserat på newswire text; Twitter unika egenskaper presenterar nya utmaningar och möjligheter för open-domain händelse extraktion. Detta dokument beskriver TwiCalthe första öppna-domän händelse-extrahering och kategorisering system för Twitter. Vi visar att det verkligen är möjligt att exakt ta fram en öppen kalender med viktiga händelser från Twitter. Dessutom presenterar vi ett nytt tillvägagångssätt för att upptäcka viktiga händelsekategorier och klassificera extraherade händelser baserat på latenta variabla modeller. Genom att utnyttja stora volymer av omärkta data uppnår vår strategi en 14-procentig ökning av maximal F1 jämfört med en övervakad baslinje. En kontinuerligt uppdaterad demonstration av vårt system kan ses på http://statuscalendar.com.Våra NLP-verktyg finns tillgängliga på http://github.com/aritter/ twitter_nlp.
TwiCal extraherar open-domain händelser från Twitter REF, där händelser identifieras av namngivna enheter.
207,196,336
Open domain event extraction from twitter
{'venue': 'KDD', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,183
FRIENDS-systemet som utvecklats vid LAAS-CNRS är en metanivåarkitektur som tillhandahåller bibliotek av metaobjects för feltolerans, säker kommunikation och gruppbaserade distribuerade applikationer. Användningen av metaobjects ger en trevlig åtskillnad av problem mellan mekanismer och tillämpningar. Metaobjects kan användas transparent av applikationer och kan komponeras enligt behoven hos en viss applikation, en viss arkitektur och dess underliggande egenskaper. I FRIENDS används metaobjects rekursivt för att lägga till nya egenskaper i applikationer. De är utformade med en objektorienterad designmetod och implementeras på toppen av grundläggande systemtjänster. Detta dokument beskriver den programbaserade arkitekturen FRIENDS, den objektorienterade utvecklingen av metaobjects, de experiment som vi har gjort och sammanfattar fördelarna och nackdelarna med en metaobject-strategi för att bygga feltoleranta system.
VÄNNER REF-systemet syftar till att tillhandahålla mekanismer för att bygga feltoleranta tillämpningar på ett flexibelt sätt genom användning av bibliotek med metaobjekt.
5,162,456
A Metaobject Architecture for Fault Tolerant Distributed Systems: The FRIENDS Approach
{'venue': 'IEEE Transactions on Computers', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,184
Abstract-Svåra energibegränsningar batteridrivna sensornoder kräver energieffektiva kommunikationsprotokoll för att uppfylla tillämpningsmålen för trådlösa sensornätverk (WSN). De allra flesta av de befintliga lösningarna bygger dock på klassiska skiktade protokoll. Det är mycket mer resurseffektivt att ha ett enhetligt system som smälter gemensamma protokolllagerfunktioner till en tvärskiktsmodul för resursbegränsade sensornoder. Såvitt vi vet finns det hittills inget enhetligt kommunikationsprotokoll mellan lager för effektiv och tillförlitlig händelsekommunikation som tar hänsyn till transport-, routing-, mediumaccess-funktioner med fysiska skikt (trådlös kanal) effekter för WSNs. I detta dokument utvecklas ett enhetligt tvärskiktsprotokoll som ersätter hela den traditionella skiktade protokollarkitekturen som hittills har använts i WSN. Vår designprincip är komplett enhetlig tvärskiktning så att både information och funktioner hos traditionella kommunikationslager smälts i ett enda protokoll. Målet med det föreslagna protokollet överlag är mycket tillförlitlig kommunikation med minimal energiförbrukning, anpassningsbara kommunikationsbeslut och undvikande av lokala trafikstockningar. I detta syfte styrs protokollets funktion av det nya konceptet för fastställande av initiativ. Baserat på detta koncept utför cross-layer-protokollet mottagen baserad strid, lokal trängselkontroll och distribuerad arbetscykel drift för att förverkliga effektiv och tillförlitlig kommunikation i WSN. Resultat från resultatutvärderingen visar att det föreslagna tvärskiktsprotokollet avsevärt förbättrar kommunikationens effektivitet och överträffar de traditionella skiktade protokollarkitekturerna.
I REF har vi utvecklat cross-layer-protokollet (XLP), som integrerar fysiska, MAC, routing, samt transportlagerfunktioner i en enhetlig kommunikationsram.
3,244,950
A Cross-Layer Protocol for Wireless Sensor Networks
{'venue': '2006 40th Annual Conference on Information Sciences and Systems', 'journal': '2006 40th Annual Conference on Information Sciences and Systems', 'mag_field_of_study': ['Computer Science']}
82,185
Abstract-Recently, betydande förbättring har gjorts på semantiska objekt segmentering på grund av utvecklingen av djupa konvolutionella neurala nätverk (DCNN). Utbildning en sådan DCNN förlitar sig vanligtvis på ett stort antal bilder med pixel-nivå segmentering masker, och att kommentera dessa bilder är mycket kostsamt både när det gäller finansiering och mänskliga insatser. I detta dokument föreslår vi en enkel till komplex (STC) ram där endast bild-nivå annoteringar används för att lära DCNNs för semantisk segmentering. Vi tränar först ett första segmenteringsnätverk som heter Initial-DCNN med översiktskartor över enkla bilder (dvs. de som har en enda kategori av större objekt och ren bakgrund). Dessa soliditetskartor kan automatiskt erhållas genom befintliga nedifrån-och-upp-relevanta objektdetektionsmetoder, där det inte behövs någon övervakningsinformation. Sedan, ett bättre nätverk som kallas Enhanced-DCNN lärs med övervakning från de förutsagda segmentering masker av enkla bilder baserade på Initial-DCNN samt bild-nivå annoteringar. Slutligen används fler pixel-nivå segmentering masker av komplexa bilder (två eller flera kategorier av objekt med rörig bakgrund), som härleds genom att använda Enhanced-DCNN och bildnivå annoteringar, som övervakningsinformation för att lära sig Kraftfull-DCNN för semantisk segmentering. Vår metod använder 40K enkla bilder från Flickr.com och 10K komplexa bilder från PASCAL VOC för att stegvis öka segmenteringsnätverket. Omfattande experimentella resultat på PASCAL VOC 2012-segmenteringsriktmärke visar tydligt överlägsenheten i det föreslagna STC-ramverket jämfört med andra state-of-the-arts.
I REF föreslås en enkel till komplex mekanism för att generera pseudomärkningen iterativt.
1,821,165
STC: A Simple to Complex Framework for Weakly-supervised Semantic Segmentation
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence, 2016', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Medicine']}
82,186
Åtgärdsförväntningar syftar till att upptäcka en åtgärd innan den inträffar. Många verkliga tillämpningar inom robotik och övervakning är relaterade till denna prediktiva förmåga. Nuvarande metoder tar itu med detta problem genom att först förutse visuella representationer av framtida ramar och sedan kategorisera de förväntade representationerna till åtgärder. Men förväntan bygger på en enda tidigare ram representation, som ignorerar den historiska trenden. Dessutom kan den bara förutse en bestämd framtid. Vi föreslår ett nätverk av förstärkta kodare (RED) för att föregripa åtgärder. RED tar flera historiska representationer som ingång och lär sig att förutse en sekvens av framtida representationer. En framträdande aspekt av RED är att en förstärkning modul antas för att ge sekvensnivå övervakning; belöningsfunktionen är utformad för att uppmuntra systemet att göra korrekta förutsägelser så tidigt som möjligt. Vi testar RED på TVSeries, THUMOS-14 och TV-Human-interaction dataset för att förutse åtgärder och uppnå toppmodern prestanda på alla datauppsättningar.
Gao m.fl. I REF föreslås ett nätverk av förstärkta kodare (RED) för att upptäcka och förutse åtgärder på nätet.
41,037,339
RED: Reinforced Encoder-Decoder Networks for Action Anticipation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,187
Det fordonsspecifika ad hoc-nätet (VANET) är en viktig teknik som möjliggör utbyggnad av det intelligenta transportsystemet (ITS), vilket förbättrar trafiksäkerheten och effektiviteten. För effektiv meddelandeleverans i VANET, är det önskvärt att ge en tillförlitlig och stabil VANET routing protokoll. Men VANET routing är utmanande eftersom VANET i grunden skiljer sig från konventionella trådlösa ad hoc-nätverk; fordon rör sig snabbt, och nätverket topologin förändras snabbt, vilket orsakar intermittenta och dynamiska länkanslutningar. I detta dokument föreslår vi ett VANET routingprotokoll som bygger på information om trafiktätheten i realtid för att ge snabb och tillförlitlig signalöverföring så att den kan anpassas till den dynamiska stadsmiljön. I den föreslagna mekanismen beräknar varje fordon trafiktätheten i realtid för den väg till vilken den hör från de signalsignaler som skickas av fordon på motsatt körfält och dess väginformationstabell. Med hjälp av vägtrafiktäthetsinformationen som vägmätare fastställer varje fordon en tillförlitlig väg för paketleverans. Vi jämför vår föreslagna mekanism med den välkända GPSR via NS-2-baserade simuleringar och visar att vår mekanism överträffar GPSR både i fråga om leveransframgång och routing overhead.
I REF, Yu et al. föreslå ett routingprotokoll för VANET baserat på fordonets densitet för att ge snabb och tillförlitlig meddelandeleverans.
38,011,753
A Stable Routing Protocol for Vehicles in Urban Environments
{'venue': None, 'journal': 'International Journal of Distributed Sensor Networks', 'mag_field_of_study': ['Computer Science']}
82,188
Experimentella studier har visat att beteendet hos verkliga länkar i trådlösa nät med låg effekt (t.ex. trådlösa sensornätverk) i stor utsträckning avviker från den idealiska binära modell som används i flera simuleringsstudier. I synnerhet finns det en stor övergångsregion med trådlös länkkvalitet som kännetecknas av betydande nivåer av otillförlitlighet och asymmetri, vilket avsevärt påverkar prestandan hos protokoll i högre skikt. Vi tillhandahåller en omfattande analys av grundorsakerna till otillförlitlighet och asymmetri. I synnerhet härleder vi uttryck för fördelningen, förväntningarna och variansen av paketmottagningen som en funktion av avståndet, liksom för lokaliseringen och omfattningen av övergångsregionen. Dessa uttryck innehåller viktiga miljö- och radioparametrar såsom den väg förlust exponent och skuggande varians av kanalen, och modulering, kodning, och hårdvara variansen av radios.
Zamalloa och Krishnamakari REF gav en omfattande analys av grundorsakerna till bristande tillförlitlighet och asymmetri.
2,186,154
An analysis of unreliability and asymmetry in low-power wireless links
{'venue': 'TOSN', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,189
Visuell styrka är en beräkningsprocess som identifierar viktiga platser och strukturer i det visuella fältet. De flesta nuvarande metoder för soliditet förlitar sig på signaler som färg och textur samtidigt ignorera djup information, som är känd för att vara en viktig Saliency kö i det mänskliga kognitiva systemet. Vi föreslår en ny beräkningsmodell för visuell hållbarhet som innehåller djupinformation. Vi jämför vår strategi med flera toppmoderna visuella salthaltsmetoder och vi introducerar en metod för saltbaserad segmentering av generiska objekt. Vi visar att genom att uttryckligen konstruera 3D-layout och formfunktioner från djupmätningar kan vi få bättre prestanda än metoder som behandlar djupkartan som bara en annan bildkanal. Vår metod kräver ingen inlärning och kan fungera på scener där systemet inte har någon tidigare kunskap. Vi utför objektsegmenteringsförsök på en ny datauppsättning av registrerade RGB-D-bilder tagna på en mobilmanipulatorrobot.
I REF föreslogs en ny beräkningsmodell för visuell styrka med djupinformation.
1,282,524
An In Depth View of Saliency
{'venue': 'BMVC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,190
Abstract-The brett utplacerade cellulära nätverk, assisterad med enhet-till-enhet (D2D) kommunikation, kan ge en lovande lösning för att stödja effektiv och tillförlitlig fordonskommunikation. Snabba kanalvariationer som orsakas av hög rörlighet i en fordonsmiljö måste beaktas ordentligt vid utformningen av resursfördelningssystem för D2D-aktiverade fordonsnätverk. I detta dokument utför vi spektrumdelning och maktfördelning endast baserat på långsamt varierande storskalig bleknande information om trådlösa kanaler. I enlighet med olika krav för olika typer av länkar, dvs. hög kapacitet för fordons-till-infrastruktur (V2I) länkar och ultratillförlitlighet för fordons-till-fordon (V2V) länkar, försöker vi maximera ergodisk kapacitet för V2I anslutningar samtidigt som tillförlitlighet garanteras för varje V2V-länk. Summa ergodisk kapacitet för alla V2I-länkar tas först som optimeringsmål för att maximera den totala V2I-länkgenomströmningen. Minimikapacitetsmaximering anses då ge en mer enhetlig kapacitetsprestanda för alla V2I-länkar. Nya algoritmer som ger optimal resursfördelning och är robusta för att kanalisera variationer föreslås. Deras önskvärda prestanda bekräftas genom datorsimulering. Index Terms-Device-to-device (D2D) kommunikation, fordonskommunikation, spektrumdelning, strömfördelning.
Författarna till REF utförde resurshanteringsmekanismen endast baserad på långsamt varierande storskalig blekning av information om trådlösa kanaler med målet att maximera CUES ergodiska kapacitet vid delning av ett spektrum med DUES.
19,516,622
Resource Allocation for D2D-Enabled Vehicular Communications
{'venue': 'IEEE Transactions on Communications', 'journal': 'IEEE Transactions on Communications', 'mag_field_of_study': ['Computer Science']}
82,191
Abstract-Network anomali upptäckt är ett levande forskningsområde. Forskare har närmat sig detta problem med hjälp av olika tekniker såsom artificiell intelligens, maskininlärning och statliga maskinmodellering. I detta dokument granskar vi först dessa metoder för att upptäcka anomalier och beskriver sedan i detalj en statistisk signalbehandlingsteknik baserad på plötslig förändringsdetektering. Vi visar att denna signalbehandlingsteknik är effektiv för att upptäcka flera nätverksavvikelser. Fallstudier från verkliga nätverksdata som visar kraften i signalbehandlingsmetoden för att upptäcka anomalier i nätverket presenteras. Tillämpningen av signalbehandlingsteknik på detta område är fortfarande i sin linda, och vi anser att den har stor potential att förbättra fältet, och därigenom förbättra tillförlitligheten i IP-nät.
M. Thottan och C. Ji REF införde de statistiska signalbehandlingstekniker som bygger på plötslig förändringsdetektering för att upptäcka nätverksanomali.
18,144,675
Anomaly Detection in IP Networks
{'venue': 'ICDCS', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,192
Policy gradient metoder är ett tilltalande tillvägagångssätt i förstärkning lärande eftersom de direkt optimerar den kumulativa belöningen och kan enkelt användas med icke-linjära funktion approximerare såsom neurala nätverk. De två största utmaningarna är det stora antal prover som normalt krävs, och svårigheten att få en stabil och stadig förbättring trots den icke-stationäritet av inkommande data. Vi tar itu med den första utmaningen genom att använda värdefunktioner för att avsevärt minska variansen av skattningar av policygradient till priset av viss skevhet, med en exponentiellt viktad uppskattning av den fördelsfunktion som är jämförbar med TD(λ). Vi tar itu med den andra utmaningen genom att använda förtroenderegionoptimering för både policyn och värdefunktionen, som representeras av neurala nätverk. Vår strategi ger starka empiriska resultat på mycket utmanande 3D-locomotion uppgifter, lära sig köra gångar för två- och fyrsidig simulerade robotar, och lära sig en politik för att få den tvådelade att stå upp från att börja ligga på marken. I motsats till en kropp av tidigare arbete som använder handgjorda politiska representationer, våra neurala nätverk politik kartlägga direkt från rå kinematics till gemensamma vridmoment. Vår algoritm är helt modellfri, och mängden simulerad erfarenhet som krävs för lärandeuppgifterna på 3D-bidéer motsvarar 1-2 veckor i realtid.
Nyligen, Schulman et al. föreslog en liknande metod, kallad den generaliserade uppskattningen av fördelsvärdet REF, som beaktade hela episoden med en exponentiellt viktad uppskattning av den fördelfunktion som är jämförbar med T D(λ) för att avsevärt minska fördomarna i uppskattningar av politisk lutning.
3,075,448
High-Dimensional Continuous Control Using Generalized Advantage Estimation
{'venue': 'ICLR 2016', 'journal': 'arXiv: Learning', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,193
Vi presenterar en modell av curvilinear gruppering med bitvis linjära representationer av konturer och ett villkorligt slumpmässigt fält för att fånga kontinuitet och frekvensen av olika korsningar typer. Potentiella kompletteringar genereras genom att bygga en begränsad Delaunay triangulation (CDT) över den uppsättning konturer som finns av en lokal kantdetektor. Maximala sannolikhetsparametrar för modellen är inlärda från människomärkt grundsanning. Genom att använda utdragna testdata mäter vi hur modellen, genom att integrera kontinuitetsstruktur, förbättrar gränsdetekteringen över den lokala kantdetektorn. Vi jämför också prestanda med en baslinje lokal klassificering som fungerar på par av kantler. Båda algoritmerna dominerar konsekvent lågnivågränsdetektorn vid alla trösklar. Såvitt vi vet är detta första gången som curvilinearkontinuitet har visats kvantitativt användbar för en stor variation av naturliga bilder. Bättre gränsdetektering har omedelbar tillämpning i problemet med objektdetektering och igenkänning.
Ren och al. REF presenterade en modell av curvilinear gruppering med hjälp av bitvis linjära representationer av konturer och ett villkorat slumpmässigt fält för att fånga kontinuitet och frekvensen av olika korsningstyper.
5,839,283
Scale-invariant contour completion using conditional random fields
{'venue': "Tenth IEEE International Conference on Computer Vision (ICCV'05) Volume 1", 'journal': "Tenth IEEE International Conference on Computer Vision (ICCV'05) Volume 1", 'mag_field_of_study': ['Computer Science']}
82,194
Figur 1: Ombyggnad av ljusfält från en enda kodad projektion. Vi utforskar glesa rekonstruktioner av 4D-ljusfält från optimerade 2D-projektioner med hjälp av ljusfältsatomer som de grundläggande byggstenarna i naturliga ljusfält. Detta exempel visar en kodad sensorbild fångad med vår kameraprototyp (övre vänster) och det återvunna 4D-ljusfältet (nedre vänster och mitt). Parallax återvinns framgångsrikt (centeringångar) och möjliggör omfokusering efter fångst (höger). Även komplexa ljuseffekter, såsom ocklusion, specularitet och refraktion, kan återvinnas, visas av bakgrunden, draken och tigern, respektive. Ljusfältsfotografering har fått ett stort forskningsintresse under de senaste två decennierna; idag är kommersiella ljusfältskameror allmänt tillgängliga. Icke desto mindre, de flesta befintliga förvärv närmar sig antingen multiplex en låg upplösning ljusfält i en enda 2D-sensor bild eller kräver flera fotografier för att tas för att förvärva en högupplöst ljusfält. Vi föreslår en kompressiv ljusfältskameraarkitektur som gör det möjligt att återvinna ljusfält med högre upplösning än vad som tidigare varit möjligt från en enda bild. Den föreslagna arkitekturen består av tre nyckelkomponenter: ljusfältsatomer som en gles representation av naturliga ljusfält, en optisk design som gör det möjligt att fånga upp optimerade projektioner av 2D-ljusfält och robusta glesa rekonstruktionsmetoder för att återställa ett 4D-ljusfält från en enda kodad 2D-projektion. Dessutom demonstrerar vi en mängd andra tillämpningar för ljusfältsatomer och gles kodning, inklusive 4D-ljusfältkompression och denoisering.
Sparse kodning används också för komprimerande ljus fältfotografering REF, vilket minskar mängden data som ska fångas.
10,988,993
Compressive light field photography using overcomplete dictionaries and optimized projections
{'venue': 'TOGS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,195
Spektrum är en kritisk men ändå knapp resurs och det har visat sig att dynamisk spektrumtillgång avsevärt kan förbättra spektrumutnyttjandet. För att uppnå detta är det viktigt att uppmuntra de primära licensinnehavarna att öppna upp sitt underutnyttjade spektrum för delning. I detta dokument presenterar vi en sekundär spektrummarknad där en primär licensinnehavare kan sälja tillgång till sina outnyttjade eller underutnyttjade spektrumresurser i form av viss finkornig spektrumtidsenhet. Sekundära trådlösa tjänsteleverantörer kan köpa sådana kontrakt för att distribuera ny tjänst, förbättra sin befintliga tjänst, eller distribuera ad hoc-tjänst för att möta efterfrågan från flashpubliker. Inom ramen för denna marknad undersöker vi hur man använder auktionsmekanismer för att fördela och prissätta spektrumresurser så att den primära licensinnehavarens intäkter maximeras. Vi börjar med att klassificera ett antal alternativa auktionsformat i termer av spektrumefterfrågan. Vi studerar sedan ett specifikt auktionsformat där andrahandsleverantörer av trådlösa tjänster har krav på fasta platser (celler). Vi föreslår en optimal auktion baserad på begreppet virtuell värdering. Om man utgår från kunskaperna om värderingsdistributioner använder den optimala auktionen Vickrey-Clarke-Groves (VCG)-mekanismen för att maximera de förväntade intäkterna samtidigt som sannfärdigheten upprätthålls. För att minska komplexiteten i beräkningen utformar vi ytterligare en sanningsenlig suboptimal auktion med polynomisk tids komplexitet. Den använder en monoton fördelning och betalning av kritiskt värde för att genomdriva sannfärdighet. Simuleringsresultat visar att denna suboptimala auktion kan generera stabila förväntade intäkter.
I REF, baserat på begreppet virtuell värdering, Jia et al. utformade en exponentiell tid VCG-baserad auktion för att maximera de förväntade intäkterna.
14,972,655
Revenue generation for truthful spectrum auction in dynamic spectrum access
{'venue': "MobiHoc '09", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,196
Trådlös kommunikation med obemannade luftfartyg (UAV) är en lovande teknik för framtida kommunikationssystem. I detta dokument, förutsatt att UAV flyger horisontellt med en fast höjd, studerar vi energieffektiv UAV-kommunikation med en markterminal genom att optimera UAV:s bana, ett nytt designparadigm som tillsammans tar hänsyn till både kommunikationsgenomströmningen och UAV:s energiförbrukning. För detta ändamål härleder vi först en teoretisk modell för framdrivningsenergiförbrukningen för fasta UAV som en funktion av UAV:s flyghastighet, riktning och acceleration. Baserat på den härledda modellen och genom att ignorera den strålning och signalbehandling energiförbrukningen, energieffektivitet UAV kommunikation definieras som den totala information bitar kommuniceras normaliseras av UAV framdrivningsenergi som förbrukas för en ändlig tidshorisont. När det gäller okonstruerad banoptimering visar vi att både hastighetsmaximering och energiminimering leder till att energieffektiviteten försvinner och därmed är energiineffektiv i allmänhet. Därefter introducerar vi en enkel cirkulär UAV-bana, under vilken UAV:s flygradie och hastighet är gemensamt optimerade för att maximera energieffektiviteten. Dessutom föreslås en effektiv konstruktion för att maximera UAV:s energieffektivitet med allmänna begränsningar på banan, inklusive dess initiala/slutliga platser och hastigheter, samt minimal/maximal hastighet och acceleration. Numeriska resultat visar att de föreslagna konstruktionerna uppnår betydligt högre energieffektivitet för UAV-kommunikation jämfört med andra referenssystem.
I Ref utformades det nya designparadigmet att gemensamt optimera kommunikationsflödet och UAV:s energiförbrukning för den avgörande banan för UAV, inklusive dess initiala/slutliga platser och hastigheter, samt dess lägsta/maximal hastighet och acceleration.
206,828,353
Energy-Efficient UAV Communication With Trajectory Optimization
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,197
Abstrakt. QoS-baserade mekanismer för tjänsteval kommer att spela en viktig roll i tjänsteorienterade arkitekturer, eftersom e-Business-tillämpningar vill använda tjänster som bäst uppfyller deras krav. Standardmetoderna inom detta område bygger vanligtvis på förutsägelser om tjänsternas prestanda från den kvalitet som annonseras av leverantörer samt från feedback från användare om de faktiska nivåerna av QoS som levereras till dem. Den viktigaste frågan i detta sammanhang är att upptäcka och hantera falska kreditbetyg från oärliga leverantörer och användare, som hittills endast har fått begränsad uppmärksamhet. I detta dokument presenterar vi en ny QoS-baserad semantisk webbtjänstval och rankning lösning med tillämpning av en förtroende- och rykteshantering metod för att ta itu med detta problem. Vi kommer att ge en formell beskrivning av vårt tillvägagångssätt och validera det med experiment som visar att vår lösning ger högkvalitativa resultat under olika realistiska fuskbeteenden.
I REF föreslog Vu et al en modell för att utvärdera och rangordna förtroendet och ryktet för QoS-baserade tjänster.
10,683,724
QoS-Based Service Selection and Ranking with Trust and Reputation Management
{'venue': 'OTM Conferences (1)', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,198
Det senaste arbetet har visat att djupuppskattning från ett stereopar av bilder kan formuleras som en övervakad inlärning uppgift att lösas med konvolutionella neurala nätverk (CNN). De nuvarande arkitekturerna är dock beroende av lappbaserade Siamese-nätverk och saknar medel för att utnyttja kontextinformation för att hitta korrespondens i utsatta regioner. För att ta itu med detta problem föreslår vi PSM-Net, en pyramid stereo matchande nätverk som består av två huvudmoduler: rumslig pyramid pooling och 3D CNN. Den rumsliga pyramidpoolningsmodulen utnyttjar kapaciteten hos global kontextinformation genom att samla sammanhang i olika skalor och platser för att bilda en kostnadsvolym. Den 3D CNN lär sig att regularisera kostnadsvolym med hjälp av staplade flera timglas nätverk i samband med mellanliggande övervakning. Det föreslagna tillvägagångssättet utvärderades på flera referensdatauppsättningar. Vår metod rankas först i
PSMNet REF föreslog en ny pyramid stereo matchande nätverk för att utnyttja global kontextinformation i stereo matchning.
4,252,896
Pyramid Stereo Matching Network
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
82,199
Abstract-Cloud Computing har föreställts som nästa generations arkitektur för IT Enterprise. I motsats till traditionella lösningar där IT-tjänsterna är under ordentlig fysisk, logisk och personalkontroll flyttar Cloud Computing applikationsprogramvaran och databaserna till de stora datacenteren, där hanteringen av data och tjänster kanske inte är helt tillförlitlig. Detta unika attribut innebär dock många nya säkerhetsutmaningar som inte har förståtts väl. I den här artikeln fokuserar vi på molndatalagringssäkerhet, vilket alltid har varit en viktig aspekt av tjänstens kvalitet. För att säkerställa korrektheten i användarnas data i molnet, föreslår vi ett effektivt och flexibelt distribuerat system med två framträdande funktioner, mot sina föregångare. Genom att använda homomorphic token med distribuerad verifiering av radering-kodade data, vårt system uppnår integration av lagring korrekthet försäkring och datafel lokalisering, dvs identifiering av felhavande server(er). Till skillnad från de flesta tidigare arbeten stöder det nya systemet ytterligare säkra och effektiva dynamiska operationer på datablock, inklusive: uppdatering av data, radering och tillägg. Omfattande säkerhets- och prestandaanalys visar att det föreslagna systemet är mycket effektivt och motståndskraftigt mot bysantinska misslyckanden, skadlig datamodifiering attack, och även server colluding attacker.
I REF, de använder homomorphic token och ECC för att uppnå integration av lagring korrekthet försäkring och data fel lokalisering.
11,017,037
Ensuring data storage security in Cloud Computing
{'venue': '2009 17th International Workshop on Quality of Service', 'journal': '2009 17th International Workshop on Quality of Service', 'mag_field_of_study': ['Computer Science']}
82,200
Vi initierar den kryptografiska studien av orderbevarande symmetrisk kryptering (OPE), ett primitivt förslag i databasgemenskapen av Agrawal et al. (SIGMOD '04) för att möjliggöra effektiva avståndsförfrågningar om krypterade data. Intressant nog visar vi först att en enkel avslappning av standardsäkerhetsbegrepp för kryptering såsom oskiljbarhet mot valdklartextattack (IND-CPA) är ouppnåelig genom ett praktiskt OPE-system. I stället föreslår vi ett säkerhetsbegrepp i en anda av pseudorandomsfunktioner (PRF) och därmed sammanhängande primitiver som kräver att ett OPE-system ser ut att vara "som slump-som-möjligt" underkastat den ordningsbevarande begränsningen. Vi utformar sedan ett effektivt ope-system och bevisar dess säkerhet enligt vår uppfattning baserad på pseudorandomness av en underliggande blockchiffer. Vår konstruktion bygger på en naturlig relation som vi avslöjar mellan en slumpmässig orderbevarande funktion och den hypergeometriska sannolikhetsfördelningen. Den använder sig särskilt av en effektiv provtagningsalgoritm för
Boldyreva m.fl. REF analyserar säkerhetsgarantierna för ordningsbevarande krypteringssystem och tillhandahåller ett effektivt genomförande av sådana tekniker.
8,859,331
Order-Preserving Symmetric Encryption
{'venue': 'IACR Cryptology ePrint Archive', 'journal': 'IACR Cryptology ePrint Archive', 'mag_field_of_study': ['Computer Science']}
82,201
• J. Paek m.fl. De flesta sensornätverksforskning och programvarudesign har vägletts av en arkitektonisk princip som tillåter multinoddatafusion på små-form-faktor, resurs-fattiga noder, eller motor. Medan vi var bland de tidigaste förespråkarna för detta tillvägagångssätt fann vi genom erfarenhet att denna princip leder till bräckliga och ohanterliga system och utforskar ett alternativ. Tenet-arkitekturen motiveras av observationen att framtida storskaliga distributioner av sensornätverk kommer att ske stegvis, bestående av motor i den lägre nivån och masters, relativt okonstruerade 32-bitars plattformsnoder, i den övre nivån. Tenet begränsar multinodefusion till masternivå samtidigt som det tillåter motor att bearbeta lokalt genererade sensordata. Detta förenklar applikationsutvecklingen och gör det möjligt att återanvända Mote-tier-programvara. Program som körs på masters task motes genom att komponera aktivitetsbeskrivningar från ett nytt skrivbordsbibliotek. Vår Tenet implementation innehåller också ett robust och skalbart nätverkssystem för att sprida uppgifter och på ett tillförlitligt sätt leverera svar. Vi visar att en Tenet purchase-evasion ansökan uppvisar prestanda jämförbar med en Mote-nativ implementation samtidigt som den är betydligt mer kompakt. Vi presenterar också två verkliga utbyggnader av Tenet-systemet: en strukturell vibrationsövervakningsapplikation på Vincent Thomas Bridge och en avbildningsbaserad habitatövervakningsapplikation på James Reserve, och visar att nivåindelad arkitektur skalar nätverkskapacitet och möjliggör tillförlitlig leverans av data med hög hastighet. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning.
Genom Tenet-metoden genomför REF ett nätverk på två nivåer: en lägre nivå bestående av motor och en övre nivå som innehåller relativt mindre resursbegränsade mästare.
53,234,829
The Tenet architecture for tiered sensor networks
{'venue': 'TOSN', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,202
Abstract-One sätt tu bekämpa f z P fildelning av upphovsrättsskyddat innehåll är att deponera i fildelningssystem stora volymer förorenade filer. Utan att ta sida i fildelningsdebatten genomför vi i detta dokument en mätningsstudie om typ och omfattning av föroreningar i FastTrack P2P-nätverket, som för närvarande är det mest populära PZP-fildelningssystemet. Vi utvecklar en krypplattform som kryper majoriteten av FastTrack Networks 20 000+ supernoder på mindre än 60 minuter, Från de råa data som samlas in av kryparen för populärt ljudinnehåll, får vi statistik över antalet unika versioner och kopior som finns tillgängliga under en 24-timmarsperiod. Vi utvecklar en automatiserad procedur tu upptäcka om en viss version är förorenad eller inte, och vi visar att sannolikheten för falska positiva och negativa av detektionsförfarandet är mycket liten. Vi använder data från krypmakaren och vår föroreningsdetektionsalgoritm för att bestämma fraktionen av versioner och fraktionen av kopior som är förorenade för flera nya och gamla låtar. Vi lägger märke till att föroreningar är genomgripande för den senaste tidens populära sånger. Vi identifierar och beskriver också ett antal mekanismer för att bekämpa föroreningar.
En unik studie visade att för populära låtar på Kazaa är upp till 70 % av de olika versionerna förorenade eller helt enkelt falska REF.
10,455,339
Pollution in P2P file sharing systems
{'venue': 'Proceedings IEEE 24th Annual Joint Conference of the IEEE Computer and Communications Societies.', 'journal': 'Proceedings IEEE 24th Annual Joint Conference of the IEEE Computer and Communications Societies.', 'mag_field_of_study': ['Computer Science']}
82,203
Abstract-A new feature selection approach som bygger på integrering av en genetisk algoritm och partikel svärm optimering föreslås. Den totala noggrannheten hos en stödvektormaskin som klassificerar valideringsprover används som ett fitnessvärde. Den nya metoden genomförs på välkända Indian Pines hyperspectral data uppsättning. Resultaten bekräftar att den nya metoden kan automatiskt välja de mest informativa funktionerna i termer av klassificering noggrannhet inom en acceptabel processtid CPU utan att kräva att antalet önskade funktioner ställs in a priori av användare. Dessutom testas nyttan av den föreslagna metoden för vägdetektering. Resultaten bekräftar att den föreslagna metoden kan skilja mellan väg- och bakgrundspixlar och presterar bättre än de andra metoder som används för jämförelse i fråga om prestandamått. Index Terms-Attribute profil, funktionsval, hybridisering av genetisk algoritm (GA) och partikel svärm optimering (PSO), hyperspektral bildanalys, vägdetektering, stöd vektor maskin (SVM) klassificerare.
Ghamisi och Benediktsson REF föreslog en funktionsvalsmetod baserad på integrering av genetisk algoritm och partikelsvärmoptimering.
26,836,919
Feature Selection Based on Hybridization of Genetic Algorithm and Particle Swarm Optimization
{'venue': 'IEEE Geoscience and Remote Sensing Letters', 'journal': 'IEEE Geoscience and Remote Sensing Letters', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,204
Kvaliteten på en Neural maskin översättningssystem beror i hög grad på tillgängligheten av betydande parallell corpora. För låg-resurs språkpar är detta inte fallet, vilket resulterar i dålig översättningskvalitet. Inspirerad av arbete i datorseende föreslår vi en ny dataförstärkningsmetod som riktar sig till lågfrekventa ord genom att generera nya meningspar som innehåller sällsynta ord i nya, syntetiskt skapade sammanhang. Experimentella resultat på simulerade lågresursinställningar visar att vår metod förbättrar översättningskvaliteten med upp till 2,9 BLEU-poäng över baslinjen och upp till 3,2 BLEU över back-translation.
I REF föreslås en effektiv metod för dataförstärkning som genererar meningspar som innehåller sällsynta ord i syntetiskt skapade sammanhang, men detta kräver parallella utbildningsdata som inte är tillgängliga i den helt oövervakade anpassningsinställningen.
3,291,104
Data Augmentation for Low-Resource Neural Machine Translation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,205
Abstrakt. I många beslutsapplikationer används skylineförfrågan ofta för att hitta en uppsättning dominerande datapunkter (kallade skylinepunkter) i en flerdimensionell datauppsättning. I en högdimensionell rymd skyline punkter inte längre erbjuder några intressanta insikter eftersom det finns för många av dem. I detta dokument introducerar vi en ny metrisk, kallad skylinefrekvens som jämför och rankar datapunkternas intressanthet baserat på hur ofta de returneras i skylinet när olika antal dimensioner (dvs subrymder) beaktas. Intuitivt är en punkt med hög skylinefrekvens mer intressant eftersom den kan domineras av färre kombinationer av dimensionerna. Således blir problemet att hitta topp-k frekventa skyline punkter. Men de algoritmer som hittills föreslagits för skyline beräkning brukar inte skala väl med dimensionalitet. Dessutom kräver frekventa skylineberäkningar att skylines beräknas för var och en av ett exponentiellt antal delmängder av dimensionerna. Vi presenterar effektiva approximativa algoritmer för att ta itu med dessa dubbla svårigheter. Vår omfattande prestandastudie visar att vår ungefärliga algoritm kan köras snabbt och beräkna rätt resultat på stora datamängder i högdimensionella utrymmen.
Chan och Al. REF undersöker problemet med att beräkna topk frekventa skylinepunkter baserat på en ny metriska, skyline frekvens.
364,606
On high dimensional skylines
{'venue': 'In EDBT', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,206
En effektiv strategi för energibesparing i trådlösa sensornätverk är att schemalägga vilointervaller för främmande noder medan de återstående noderna förblir aktiva för att tillhandahålla kontinuerlig service. För att sensornätverket ska fungera framgångsrikt måste de aktiva noderna upprätthålla både sensortäckning och nätverksanslutning. Dessutom måste nätverket kunna konfigurera sig till en möjlig nivå av täckning och konnektivitet för att kunna stödja olika tillämpningar och miljöer med olika krav. Denna artikel presenterar utformningen och analysen av nya protokoll som dynamiskt kan konfigurera ett nätverk för att uppnå garanterad grad av täckning och konnektivitet. Detta arbete skiljer sig från befintliga konnektivitets- eller täckningsunderhållsprotokoll på flera viktiga sätt. (1) Vi presenterar en täckning Configuration Protocol (CCP) som kan ge olika grader av täckning begärs av applikationer. Denna flexibilitet gör det möjligt för nätverket att självkonfigurera för ett brett spektrum av tillämpningar och (eventuellt dynamiska) miljöer. (2) Vi tillhandahåller en geometrisk analys av förhållandet mellan täckning och konnektivitet. Denna analys ger viktiga insikter för att behandla täckning och konnektivitet inom en enhetlig ram; i skarp kontrast till flera befintliga metoder som hanterar de två problemen isolerat. (3) Vi integrerar CCP med SPAN för att ge både täckning och konnektivitetsgarantier. (4) Vi föreslår en probabilistisk täckningsmodell och utvidgar den centrala motparten till att ge probabilistiska täckningsgarantier. Vi demonstrerar våra protokolls förmåga att ge garanterad täckning och konnektivitetskonfigurationer genom både geometrisk analys och omfattande simuleringar.
Ref Xiaorui Wang et al modell presenterade design och analys av nya protokoll som dynamiskt kan konfigurera ett nätverk för att uppnå garanterad grad av täckning och konnektivitet.
653,436
Integrated coverage and connectivity configuration for energy conservation in sensor networks
{'venue': 'TOSN', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,207
Detta dokument undersöker domän generalisering: Hur tar man kunskap som förvärvats från ett godtyckligt antal relaterade domäner och tillämpar den på tidigare osynliga domäner? Vi föreslår Domain-Invariant Component Analysis (DICA), en kärnbaserad optimeringsalgoritm som lär sig en invariant transformation genom att minimera olikheten mellan domäner, samtidigt som den funktionella relationen mellan indata och utdatavariabler bevaras. En lärande-teoretisk analys visar att minska olikhet förbättrar den förväntade generalisering förmåga klassificering på nya domäner, motivera den föreslagna algoritmen. Experimentella resultat på syntetiska och verkliga dataset visar att DICA framgångsrikt lär sig invarianta funktioner och förbättrar klassificeringsprestandan i praktiken.
REF lär sig en kärnbaserad representation som minimerar domänskillnader och behåller den funktionella relationen med etiketten.
2,630,174
Domain Generalization via Invariant Feature Representation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,209
Abstract-Software buggar kan orsaka betydande ekonomiska förluster och även förlust av människoliv. För att minska denna förlust, utvecklarna ägnar stora ansträngningar åt att fixa buggar, vilket i allmänhet kräver mycket expertis och erfarenhet. Olika tillvägagångssätt har föreslagits för att hjälpa till med felsökning. En intressant ny forskningsriktning är automatisk programreparation, som uppnår lovande resultat, och drar till sig mycket akademisk och industriell uppmärksamhet. Men människor tvivlar också på effektiviteten och löftet i denna riktning. En viktig kritik är i vilken utsträckning sådana metoder kan rätta till verkliga fel. Eftersom det bara finns forskningsprototyper för dessa metoder är det omöjligt att ta itu med kritiken genom att utvärdera dem direkt på riktiga fel. Istället, i detta papper, vi utforma och utveckla BUGSTAT, ett verktyg som extraherar och analyserar buggfixar. Med BUGSTATs stöd genomför vi en empirisk studie av mer än 9.000 verkliga felrättningar från sex populära Javaprojekt. Jämföra karaktären av manuella korrigeringar med automatisk program reparation, destillerar vi 15 fynd, som ytterligare sammanfattas i fyra insikter om de två viktigaste ingredienserna i automatisk programreparation: fel lokalisering och felaktig kodfix. Dessutom tillhandahåller vi indirekta bevis på storleken på sökutrymmet för att rätta riktiga fel och upptäcka att fel också kan finnas i icke-källfiler. Våra resultat ger användbar vägledning och insikter för att förbättra toppmoderna automatiska programreparationer.
Zhong m.fl. REF genomförde en empirisk studie om verkliga buggfixar för att ge insikter och riktlinjer för att förbättra toppmoderna automatiska programreparationer.
16,474,153
An empirical study on real bug fixes
{'venue': "ICSE '15", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,210
I detta dokument föreslår vi en visuell detekteringsalgoritm från återuppbyggnadsfelens perspektiv. Bildgränserna extraheras först via superpixlar som troliga signaler för bakgrundsmallar, från vilka täta och glesa utseendemodeller konstrueras. För varje bildregion beräknar vi först täta och glesa återuppbyggnadsfel. För det andra sprids rekonstruktionsfelen på grundval av de sammanhang som erhålls från k-medelsklustret. För det tredje, pixel-nivå saliency beräknas genom en integrering av flerskaliga rekonstruktionsfel och förfinas av en objekt-grundad Gaussian modell. Vi tillämpar Bayes-formeln för att integrera saltåtgärder baserade på täta och glesa återuppbyggnadsfel. Experimentella resultat visar att den föreslagna algoritmen presterar gynnsamt mot sjutton state-of-the-art metoder i termer av precision och recall. Dessutom har den föreslagna algoritmen visat sig vara mer effektiv när det gäller att lyfta fram framträdande föremål på ett enhetligt och robust sätt mot bakgrundsbuller.
Saliensdetektion via Dense och Sparse Reconstruction (DSR) är en metod ur perspektivet av rekonstruktionsfel REF.
9,201,661
Saliency Detection via Dense and Sparse Reconstruction
{'venue': '2013 IEEE International Conference on Computer Vision', 'journal': '2013 IEEE International Conference on Computer Vision', 'mag_field_of_study': ['Computer Science']}
82,211
Abstract-För att ta itu med den växande oron för säkerheten i inbyggda system, är det viktigt att utföra korrekt analys av firmware binärer, även när källkoden eller hårdvara dokumentation inte är tillgängliga. Forskningen på detta område hindras dock av bristen på särskilda verktyg. Dynamisk analys är till exempel en av de viktigaste grunderna för säkerhetsanalyser, t.ex. genom dynamisk föroreningsspårning eller symbolisk avrättning. Till skillnad från statisk analys, bygger dynamisk analys på förmågan att köra programvara i en kontrollerad miljö, ofta en instrumenterad emulator. Men emulating firmwares av inbyggda enheter kräver exakta modeller av alla hårdvarukomponenter som används av systemet under analys. Tyvärr gör bristen på dokumentation och det stora utbudet av hårdvara på marknaden detta tillvägagångssätt ogenomförbart i praktiken. I detta dokument presenterar vi Avatar, ett ramverk som möjliggör komplex dynamisk analys av inbyggda enheter genom att iscensätta utförandet av en emulator tillsammans med den verkliga hårdvaran. Vi introducerar först den grundläggande mekanismen för att vidarebefordra I/O-åtkomst från emulatorn till den inbyggda enheten, och beskriver sedan flera tekniker för att förbättra systemets prestanda genom att dynamiskt optimera fördelningen av kod och data mellan de två miljöerna. Slutligen utvärderar vi vårt verktyg genom att tillämpa det på tre olika säkerhetsscenarier, inklusive omvänd teknik, sårbarhetsupptäckt och hårdkodad bakdörrsdetektering. För att visa flexibiliteten hos Avatar utför vi denna analys på tre helt olika enheter: en GSM-funktionstelefon, en hårddisk bootloader och en trådlös sensornod.
ACATAR REF använder S 2 E symbolisk exekvering motor för att köra firmware binärer i en emulator medan vidarebefordra I/O-förfrågningar till den fysiska enheten och bearbeta svaren från enheten genom tillstånd migrering.
11,379,784
Avatar: A Framework to Support Dynamic Security Analysis of Embedded Systems’ Firmwares
{'venue': 'NDSS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,212
I detta dokument föreslår vi en metod för att automatiskt märka flerspråkiga data med namngivna enhetstaggar. Vi bygger vidare på tidigare arbete med att använda Wikipedia metadata och visar hur man effektivt kombinerar de svaga annoteringar som härrör från Wikipedia metadata med information som erhållits genom engelsk-utländska språket parallella Wikipedia meningar. Kombinationen uppnås med hjälp av en ny semi-CRF-modell för märkning av utländsk mening i samband med en parallell engelsk mening. Modellen överträffar både standardanmärkningsprojiceringsmetoder och metoder baserade enbart på Wikipedia metadata.
Det har också forskat om namngiven enhet erkännande för koreanska. REF föreslår en metod för att automatiskt märka flerspråkig data med namngivna enhetstaggar, som kombinerar Wikipedia meta-data med information som erhålls genom engelsk-utländska språkparallell Wikipedia meningar.
2,237,176
Multilingual Named Entity Recognition using Parallel Data and Metadata from Wikipedia
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,213
Vad är en bra visuell representation för navigering? Vi studerar denna fråga i samband med semantisk visuell navigering, som är problemet med att en robot hittar sin väg genom en tidigare osedd miljö till ett målobjekt, t.ex. Gå till kylskåpet. Istället för att skaffa en metrisk semantisk karta över en miljö och med hjälp av planering för navigering, lär sig vår strategi navigeringspolicy på toppen av representationer som fångar rumslig layout och semantiska kontextuella signaler. Vi föreslår att man använder semantiska segmenterings- och detektionsmasker som observationer som erhållits av toppmoderna datorseendealgoritmer och använder ett djupt nätverk för att lära sig navigeringspolitiken. Tillgången till rättvisa representationer i simulerade miljöer möjliggör gemensam utbildning med hjälp av verkliga och simulerade data och lindrar behovet av domänanpassning eller domän randomisering som vanligen används för att hantera sim-toreal överföring av inlärda policys. Både representationen och navigeringspolicyn kan enkelt tillämpas på verkliga icke-syntetiska miljöer, vilket visas på Active Vision Dataset [1]. Vår strategi når framgångsrikt målet i 54 procent av fallen i outforskade miljöer, jämfört med 46 procent för ett icke-lärandebaserat tillvägagångssätt, och 28 procent för ett lärandebaserat utgångsläge.
REF lär sig navigeringspolicyer baserade på objektdetektorer och semantiska segmenteringsmoduler.
21,723,900
Visual Representations for Semantic Target Driven Navigation
{'venue': '2019 International Conference on Robotics and Automation (ICRA)', 'journal': '2019 International Conference on Robotics and Automation (ICRA)', 'mag_field_of_study': ['Engineering', 'Computer Science']}
82,214
Vektortrådens (VT) arkitektoniska paradigm förenar vektorn och multitrådade beräkningsmodeller. VT-abstractionen förser programmeraren med en styrprocessor och en vektor av virtuella processorer (VP). Kontrollprocessorn kan använda vector-fetch kommandon för att sända instruktioner till alla VPs eller varje VP kan använda tråd-fetches för att styra sitt eget kontrollflöde. En sömlös intermixing av vektorn och gängade styrmekanismer gör det möjligt för en VT-arkitektur att flexibelt och kompakt koda programparallalism och lokalitet, och en VT-maskin utnyttjar dessa för att förbättra prestanda och effektivitet. Vi presenterar SCALE, en ögonblicksbild av VT-arkitekturen utformad för låg effekt och högpresterande inbyggda system. Vi utvärderar SCALE-prototypen med hjälp av en detaljerad simulering av ett brett spektrum av inbyggda applikationer och visar att dess prestanda är konkurrenskraftig med större och mer komplexa processorer.
REF föreslår vektortrådsarkitekturen som exponerar två instruction hämta mekanism i ISA: vektor-fetch och tråd-fetch.
946,510
The vector-thread architecture
{'venue': 'Proceedings. 31st Annual International Symposium on Computer Architecture, 2004.', 'journal': 'Proceedings. 31st Annual International Symposium on Computer Architecture, 2004.', 'mag_field_of_study': ['Computer Science']}
82,215
Motiverade av visionsbaserade förstärkande inlärningsproblem (RL), särskilt Atari spel från den senaste referensen Aracade Learning Environment (ALE), anser vi problem med spatio-temporala förutsägelser där framtida (bild-)ramar är beroende av kontrollvariabler eller åtgärder samt tidigare ramar. Även om de inte består av naturliga scener, ramar i Atari spel är högdimensionella i storlek, kan innebära tiotals objekt med ett eller flera objekt som kontrolleras av åtgärder direkt och många andra objekt påverkas indirekt, kan innebära inträde och avgång av objekt, och kan innebära djup partiell observerbarhet. Vi föreslår och utvärderar två djupa neurala nätverk arkitekturer som består av kodning, åtgärdsvillkor omvandling, och avkodning lager baserade på konvolutionella neurala nätverk och återkommande neurala nätverk. Experimentella resultat visar att de föreslagna arkitekturerna kan generera visuell-realistiska ramar som också är användbara för kontroll över cirka 100-stegs action-villkorliga framtider i vissa spel. Såvitt vi vet är denna uppsats den första att göra och utvärdera långsiktiga förutsägelser på högdimensionell video betingad av styringångar. ArXiv:1507.08750v1 [cs. Försäkringstekniska avsättningar beräknade som helhet – Bästa skattning och försäkringstekniska avsättningar beräknade som helhet netto (efter återförsäkring/specialföretag) – Bästa skattning och försäkringstekniska avsättningar beräknade som helhet (efter återförsäkring/specialföretag) – Bästa skattning och försäkringstekniska avsättningar beräknade som helhet (efter återförsäkring/specialföretag) – Bästa skattning och försäkringstekniska avsättningar beräknade som helhet (efter återförsäkring/specialföretag) – Bästa skattning och försäkringstekniska avsättningar beräknade som helhet (efter återförsäkring/specialföretag)
REF föreslog en nätverksarkitektur för åtgärdskonditionerad videoförutsägelse i Atari-spel.
3,147,510
Action-Conditional Video Prediction using Deep Networks in Atari Games
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,216
Abstract-The ASSIST projektet syftar till att underlätta cervikal cancerforskning genom att integrera medicinska journaler som innehåller både fenotypiska och genotypiska data, och som är bosatta på olika medicinska center eller sjukhus. Målet med ASSIST är att möjliggöra utvärdering av medicinska hypoteser och genomförande av föreningsstudier på ett intuitivt sätt, vilket gör det möjligt för medicinska forskare att identifiera riskfaktorer som sedan kan användas vid vårdtillfället för att identifiera kvinnor som löper hög risk att utveckla livmoderhalscancer. I detta dokument presenteras den aktuella statusen för ASSIST:s medicinska kunskapsbas. I synnerhet diskuterar vi utmaningarna med att bygga ASSIST integrerade resurs och möjliggöra frågebehandling genom en domän ontologi, och de lösningar som tillhandahålls med hjälp av AutoMed heterogena dataintegrationssystem. Vi fokuserar på datarensningsfrågor, på dataintegrationsfrågor relaterade till integrering av relationella medicinska datakällor i en oberoende domän ontologi och även på frågebehandling. Särskilt intressant är utmaningen att tillhandahålla en lätt underhållbar integrerad resurs i en miljö där datakällorna och domänen ontologi utvecklas självständigt och därför båda med stor sannolikhet kommer att utvecklas över tiden.
I REF presenterar författarna den aktuella statusen för ASSIST medicinska kunskapsbasen.
13,603,306
Flexible data integration and ontology-based data access to medical records
{'venue': '2008 8th IEEE International Conference on BioInformatics and BioEngineering', 'journal': '2008 8th IEEE International Conference on BioInformatics and BioEngineering', 'mag_field_of_study': ['Computer Science']}
82,218
ABSTRACT Mobile edge computing (MEC) är ett lovande paradigm för att tillhandahålla molnkomputeringskapacitet i nära anslutning till mobila enheter i femte generationens (5G) nätverk. I detta dokument studerar vi energieffektiva avlastningsmekanismer (ECO) för MEC i 5G heterogena nät. Vi formulerar ett optimeringsproblem för att minimera energiförbrukningen i avlastningssystemet, där energikostnaden för både uppgiftsdatorer och filöverföring beaktas. Inbegripet 5G heterogena näts multiaccessegenskaper utformar vi sedan ett ECO-system som tillsammans optimerar avlastning och tilldelning av radioresurser för att uppnå en minimal energiförbrukning under latensbegränsningarna. Numeriska resultat visar en förbättring av energieffektiviteten i vårt föreslagna ECO-system. INDEX TERMS Energieffektivitet, avlastning, beräkning av mobila kanter, 5G.
Zhang m.fl. REF undersökte energieffektiv beräkning offloading i 5G HetNets omfattande en MBS och en SBS genom att använda ett optimeringsproblem för att minimera strömförbrukningen i systemet samtidigt som latency begränsningar.
18,366,887
Energy-Efficient Offloading for Mobile Edge Computing in 5G Heterogeneous Networks
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
82,219