Jag driver elektricitet (för ljus och ett par uttag) i min trädgård. Jag försöker bestämma vilken trådtjocklek jag behöver välja. FWIW, jag är i Europa.
Hela huset är anslutet med två typer av ledningar: utlopp med 2,5 mm 2 (ca 13 AWG) och taklampor och motsvarande brytare med 1,5 mm 2 15-16 AWG). Alla brytare är klassade på 16 A, och det finns två grupper av dem, var och en skyddad av en 20 A-brytare med 30 mA RCD .
Eftersom 2,5 mm 2 trådar är mycket styvare och därmed svåra att springa genom ledningar (och det är inte vanligt att använda strängkablar för vägginstallationer i Europa), är jag benägen att köra 1,5 mm 2 trådar i min trädgård.
Men som den befintliga installations- och googleshowen är det vanligt att använda 2,5 mm 2 eller tjockare ledningar för allt utom belysning och 1,5 mm 2 för belysning. Jag undrar varför? Är inte dessa standarder föråldrade?
Min logik är enligt följande. En 1,5 mm 2 tråd är klassad för 16 A (jag använde det här verktyget och gick in i 30 ° C, PVC-isolering, 3 element i begränsad bunt). Vid 230 V ger detta en maximal effektskapacitet på 3680 W. Den högsta effektenhet som jag kunde tänka på för en trädgård är Kärcher K7 , som är klassad på 2,8 kW. Således bör 1,5 mm 2 tråd vara mer än tillräcklig.
Naturligtvis för modern LED-belysning är även 1 mm 2 löjligt tjock, baserat på en sådan beräkning.
En annan aspekt att tänka på är spänningsfallet. Kopparets resistivitet är 17 nΩ · m. Därför har ett 1,5 mm 2 20 m kabel en returvägsresistans R = rho × L / A = 0,45 Ω. Det medför att vid full ström ett spänningsfall på 7,2 V, vilket förmodligen är perfekt för alla moderna enheter. En ansluten LED-lampa kan vara mer kräsen men förbrukar bara 10 W, så spänningsfallet blir mycket mindre, 10/230 × 0,45 = 0,02 V.
Var har jag fel i mitt beaktande?